Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by Title

Sort by: Order: Results:

  • Myyrä, Antti (2019)
    Distributed systems have been a topic of discussion since the 1980s, but the adoption of microservices has raised number of system components considerably. With more decentralised distributed systems, new ways to handle authentication, authorisation and accounting (AAA) are needed, as well as ways to allow components to communicate between themselves securely. New standards and technologies have been created to deal with these new requirements and many of them have already found their way to most used systems and services globally. After covering AAA and separate access control models, we continue with ways to secure communications between two connecting parties, using Transport Layer Security (TLS) and other more specialised methods such as the Google-originated Secure Production Identity Framework for Everyone (SPIFFE). We also discuss X.509 certificates for ensuring identities. Next, both older time- tested and newer distributed AAA technologies are presented. After this, we are looking into communication between distributed components with both synchronous and asynchronous communication mechanisms, as well as into the publish/subscribe communication model popular with the rise of the streaming platform. This thesis also explores possibilities in securing communications between distributed endpoints and ways to handle AAA in a distributed context. This is showcased in a new software component that handles authentication through a separate identity endpoint using the OpenID Connect authentication protocol and stores identity in a Javascript object-notation formatted and cryptographically signed JSON Web Token, allowing stateless session handling as the token can be validated by checking its signature. This enables fast and scalable session management and identity handling for any distributed system.
  • Zosa, Elaine (2017)
    Protein function prediction aims to identify the function of a given protein using, for example, sequence data, protein-protein interaction or evolutionary relationships. The use of biomedical literature to predict protein function, however, is a relatively under-studied topic given the vast amount of readily available data. This thesis explores the use of abstracts from biomedical literature to predict protein functions using the terms specified in the Gene Ontology (GO). The Gene Ontology (GO) is a standardised method of cataloguing protein functions where the functions are organised in a directed acyclic graph (DAG). The GO is composed of three separate ontologies: cellular component (CC), molecular function (MF) and biological process (BP). Hierarchical classification is a classification method that assigns an instance to one or more classes where the classes are hierarchically related to each other, as in the GO. We build a hierarchical classifier that assigns GO terms to abstracts by training individual binary Naïve Bayes classifiers to recognise each GO term. We present three different methods of mining abstracts from PubMed. Using these methods we assembled four datasets to train our classifiers. Each classifier is tested in three different ways: (a) in the paper-centric approach, we assign GO terms to a single abstract, (b) in the protein-centric approach, we assign GO terms to a concatenation of abstracts relating to single protein; and (c) the term-centric approach is a complement of the protein-centric approach where the goal is to assign proteins to a GO term. We evaluate the performance of our method using two evaluation metrics: maximum F-measure (F-max) and minimum semantic distance (S-min). Our results show that the best dataset for training our classifier depends on the evaluation metric, the ontology and the proteins being annotated. We also find that there is a negative correlation between the F-max score of a GO term and its information content (IC) and a positive correlation between the F-max and the term's centrality in the DAG. Lastly we compare our method with GOstruct, the state-of-the-art literature-based protein annotation program. Our method outperforms GOstruct on human proteins, showing a significant improvement for the MF ontology.
  • Hakoniemi, Tuomas (2016)
    In this master's thesis we study a lower part of the so called Leibniz hierarchy in abstract algebraic logic. Abstract algebraic logic concerns itself with taxonomic study of logics. The main classification of logics is the one into the Leibniz hierarchy according to the properties that the Leibniz operator has on the lattice of theories of a given logic. The Leibniz operator is a function that maps a theory of a logic to an indiscernability relation modulo the theory. We study here two of the main classes in the Leibniz hierarchy — protoalgebraic and equivalential logics — and some of their subclasses. We state and prove the most important characterizations for these classes. We also provide new characterizations for the class of finitely protoalgebraic logics — a class that has previously enjoyed only limited attention. We recall first some basic facts from universal algebra and lattice theory that are used in the remainder of the thesis. Then we present the abstract definition of logic we work with and give abstract semantics for any logic via logical matrices. We define logics determined by a class of matrices and show how to uniformly associate with a given logic a class of matrices so that the original logic and the logic determined by the class coincide — thus providing an abstract completeness theorem for any logic. Remainder of the thesis is dedicated to the study of protoalgebraic and equivalential logics. We provide three main families of characterizations for the various classes of logics. The first characterizations are completely syntactic via the existence of sets of formuli satisfying certain properties. The second family of characterizations is via the properties that the Leibniz operator has on the lattice of theories of a given logic. The third and final family of characterizations is via the closure properties of a canonical class of matrices — the class of reduced models — that we associate to any logic.
  • Bharthuar, Shudhashil (2019)
    The High-Luminosity phase of the Large Hadron Collider (HL-LHC), that is expected to become operational in 2026, aims at increasing the luminosity of the LHC up to ten times higher than its current nominal value. This in turn calls for improving the radiation hardness of the CMS tracker detectors that will be subjected to significantly greater levels of radiation. The following thesis aims at examining the electrical properties of metal–oxide semiconductor (MOS) capacitors and silicon sensors of different structures with a design developed for CMS Beam Luminosity Telescope (BLT). These were fabricated on three different wafers and the atomic layer deposition (ALD) of alumina on the p-type silicon substrate was done by using either ozone (O3), water (H2O), or water and ozone (H2O+O3) pulsed directly one after the other, as oxygen precursor. The same study is made on Radiation Monitoring (RADMON)-type sensors with n-type silicon substrate and Titanium Nitride (TiN) based bias resistors generated on substrate by deposition of a thin TiN layer by radio-frequency sputtering with different sputtering parameters. Electrical properties of these sensors are derived by measuring their capacitance–voltage and current–voltage characteristics. The results demonstrate that BLT diodes from the three different wafers, having the same thickness, give the same value for full depletion voltage. However, structures with larger metalization area have larger surface currents. RADMON and standard BLT diodes of the same wafer do not show any significant difference in full depletion voltage. However, leakage current for the p-type sensor is higher in comparison to that of the n-type sensor. Results also show that MOS capacitor samples from the H2O+O3 wafer are more sensitive to radiation compared to those from the H2O and O3 wafers. Further, TiN based bias resistor samples produced with shorter sputtering time and lower Argon gas flow rate and a high Nitrogen gas flow rate have a higher resistance.
  • Stark, Piritta (2022)
    In this study, single-grain rutile techniques (rutile U-Pb geochronology, Zr-in rutile thermometry, rutile Nb-Cr systematics and trace element composition) are applied on Red Clay samples from Lingtai, central-southern Chinese Loess Plateau (CLP), to reveal more detailed information on provenance of the Red Clay and wind regimes responsible for transporting the particles from source to sink between 7 Ma and 2.6 Ma. The new rutile data are combined with previous zircon U-Pb data from Lingtai and nearby Chaona to strengthen the interpretations with multi-proxy approach. The results suggest that from 7.05 Ma to 6.23 Ma the westerlies and the East Asian Winter Monsoon (EAWM) were relatively equally responsible for the sediment transportation to the CLP. At 5.55 Ma, the Red Clay was mostly derived from the westerly sources. At 3.88 Ma, contribution from northeastern Tibetan Plateau was most dominant suggesting enhanced East Asian Summer Monsoon (EASM) and surficial drainage from the source regions. At 3.20 Ma, the Red Clay was mainly sourced from proximal areas and fluctuation between EAWM and EASM had begun. This study demonstrates that single-grain rutile techniques have strong potential to aid a more precise distinction between individual primary and secondary sources for aeolian dust in the CLP region, especially when combined with zircon geochronology or other single-grain techniques. However, at present the applicability of rutile in provenance studies is hindered by scarcity of rutile data from the potential primary as well as secondary source regions, and lack of truly homogenous rutile standards for the analysis.
  • Kivisaari, Tero (2015)
    Changing consumer behavior drives the demand for convenient and easy-to-use mobile applications across industries. This also impacts the financial sector. Banks are eager to offer their services as mobile applications to match the modern consumer needs. The mobile applications are not independently able to provide the required functionality; they interact with the existing core business functions by consuming secure Web Services over the Internet. The thesis analyses the problem of how a bank can enable a new secure distribution and communication channel via the mobile applications. This new channel must be able to interact with existing core systems. The problem is investigated from different axis related to Web Services protocols suitable for mobile use, security solutions for the communication protocols and the required support available in the selected mobile operating systems. The result of the analysis is an architectural description to fulfil the presented requirements. In addition to constructing the architecture, the thesis also describes some of the more advanced threats targeted against mobile apps and Web Services and provides mitigation schemes for the threats. The selected architecture contains a modular security solution that can be utilized outside of the financial context as well. ACM Computing Classification System (CCS 2012): - Information systems → Web Services - Security and privacy → Software and application security - Software and its engineering → Software architectures
  • Boström, Jani (Helsingin yliopistoUniversity of HelsinkiHelsingfors universitet, 2000)
  • Tyree, Juniper (2023)
    Response Surface Models (RSM) are cheap, reduced complexity, and, usually, statistical models that are fit to the response of more complex models to approximate their outputs with higher computational efficiency. In atmospheric science, there has been a continuous push to reduce the amount of training data required to fit an RSM. With this reduction in costly data gathering, RSMs can be used more ad hoc and quickly adapted to new applications. However, with the decrease in diverse training data, the risk increases that the RSM is eventually used on inputs on which it cannot make a prediction. If there is no indication from the model that its outputs can no longer be trusted, trust in an entire RSM decreases. We present a framework for building prudent RSMs that always output predictions with confidence and uncertainty estimates. We show how confidence and uncertainty can be propagated through downstream analysis such that even predictions on inputs outside the training domain or in areas of high variance can be integrated. Specifically, we introduce the Icarus RSM architecture, which combines an out-of-distribution detector, a prediction model, and an uncertainty quantifier. Icarus-produced predictions and their uncertainties are conditioned on the confidence that the inputs come from the same distribution that the RSM was trained on. We put particular focus on exploring out-of-distribution detection, for which we conduct a broad literature review, design an intuitive evaluation procedure with three easily-visualisable toy examples, and suggest two methodological improvements. We also explore and evaluate popular prediction models and uncertainty quantifiers. We use the one-dimensional atmospheric chemistry transport model SOSAA as an example of a complex model for this thesis. We produce a dataset of model inputs and outputs from simulations of the atmospheric conditions along air parcel trajectories that arrived at the SMEAR II measurement station in Hyytiälä, Finland, in May 2018. We evaluate several prediction models and uncertainty quantification methods on this dataset and construct a proof-of-concept SOSAA RSM using the Icarus RSM architecture. The SOSAA RSM is built on pairwise-difference regression using random forests and an auto-associative out-of-distribution detector with a confidence scorer, which is trained with both the original training inputs and new synthetic out-of-distribution samples. We also design a graphical user interface to configure the SOSAA model and trial the SOSAA RSM. We provide recommendations for out-of-distribution detection, prediction models, and uncertainty quantification based on our exploration of these three systems. We also stress-test the proof-of-concept SOSAA RSM implementation to reveal its limitations for predicting model perturbation outputs and show directions for valuable future research. Finally, our experiments affirm the importance of reporting predictions alongside well-calibrated confidence scores and uncertainty levels so that the predictions can be used with confidence and certainty in scientific research applications.
  • Smirnov, Pavel (2022)
    There are many computationally difficult problems where the task is to find a solution with the lowest cost possible that fulfills a given set of constraints. Such problems are often NP-hard and are encountered in a variety of real-world problem domains, including planning and scheduling. NP-hard problems are often solved using a declarative approach by encoding the problem into a declarative constraint language and solving the encoding using a generic algorithm for that language. In this thesis we focus on pseudo-Boolean optimization (PBO), a special class of integer programs (IP) that only contain variables that admit the values 0 and 1. We propose a novel approach to PBO that is based on the implicit hitting set (IHS) paradigm, which uses two separate components. An IP solver is used to find an optimal solution under an incomplete set of constraints. A pseudo-Boolean satisfiability solver is used to either validate the feasibility of the solution or to extract more constraints to the integer program. The IHS-based PBO algorithm iteratively invokes the two algorithms until an optimal solution to a given PBO instance is found. In this thesis we lay out the IHS-based PBO solving approach in detail. We implement the algorithm as the PBO-IHS solver by making use of recent advances in reasoning techniques for pseudo-Boolean constraints. Through extensive empirical evaluation we show that our PBO-IHS solver outperforms other available specialized PBO solvers and has complementary performance compared to classical integer programming techniques.
  • Salmivaara, Antti (2020)
    Pseudodifferentiaalioperaattoreiden tutkimus nousi 1960-luvulla singulaaristen integraalioperaattoreiden tutkimuksesta. Vaikka esimerkiksi sellaiset tunnetut tulokset kuin Atiyah-Singerin indeksilause ja Alberto Calderónin todistama osittaisdifferentiaaliyhtälöiden Cauchy-ongelman yksikäsitteisyys käyttivät hyväkseen menetelmiä, joiden nykyään katsotaan kuuluvan pseudodifferentiaalioperaattoreiden alaan, termiä pseudodifferentiaalioperaattorit ryhdyttiin käyttämään vasta Lars Hörmanderin, Louis Nirenbergin ja Joseph J. Kohnin myötä vuodesta 1968 eteenpäin. Pseudodifferentialaioperaattoreiden tutkimuksessa erityisen mielenkiinnon kohteena on operaattorin muodostava symboli. Toisin kuin tavallisissa differentiaaliyhtälöissä, pseudodifferentiaalioperaattorin symboli on jokin yleinen funktio. Tässä työssä käsitellään pseudodifferentiaalioperaattoreita, joiden symbolit kuuluvat symboliluokkaan S^m, joka tarkoittaa sellaisia äärettömän monta kertaa derivoituvia jatkuvia funktioita, jota ovat rajoitettuja korkeintaan astetta m olevalla polynomilla. Ennen aiheen varsinaista käsittelyä määrittelemme luvussa kaksi Schwartzin avaruuden, temperoidut distribuutiot ja Sobolev-avaruuden H^s. Todistamme joitakin näiden avaruksien ominaisuuksia ja määrittelemme Fourier-muunnoksen ja käänteismuunnoksen. Kolmannessa luvussa määrittelemme pseudodifferentiaalioperaattoreiden symboliluokat astetta m ja astetta negatiivinen ääretön ja todistamme, että symbolien derivointi ja kertominen keskenään tuottavat symboleita. Lisäksi todistamme, että symboleille on olemassa asymptoottinen kehitelmä. Luvussa neljä käytämme hieman aikaa oskilloivien integraalien määrittelyyn ja todistamme, että tällaiset integraalit ovat rajoitettuja. Tämän jälkeen määrittelemme pseudodifferentiaalioperaattorit luvussa viisi käyttämällä edellisten lukujen tuloksia. Todistamme, että pseudodifferentiaalioperaattorit, joiden symbolit ovat edellämainituissa symboliluokissa, ovat jatkuvia kuvauksia Schwartzin avaruuden alkioille ja temperoiduille distribuutioille. Luvussa kuusi todistamme, että pseudodifferentiaalioperaatorilla on L^2-adjungaatti ja todistamme, että kahden operaattorin tulo on hyvin määritelty. Todistamme myös, että pseudodifferentiaalioperaattori on jatkuva kuvaus avaruudessa L^2 ja Sobolev-avaruuksissa. Lopuksi luvussa 7 esittelemme elliptiset pseudodifferentiaalioperaattorit ja todistamme, että tällaisten operaattoreiden käänteisoperaattori on löydettävissä modulo silotusoperaattorit parametriksien avulla.
  • Siipola, Janne (2019)
    Työssä on kaksi keskeistä teemaa: esitellä pseudodifferentiaalioperaattoreiden teoriaa ja todistaa tarkka Gårdingin epäyhtälö. Työhön on valittu erityisesti sellaisia pseudodifferentiaalioperaattoreihin liittyviä tuloksia, jotka tukevat tarkan Gårdingin epäyhtälön todistamista. Luvussa kaksi määritellään symboli ja esitetään kuinka symboli määrää pseudodifferentiaalioperaattorin. Lisäksi luvussa tarkastellaan pseudodifferentiaalioperaattoreiden ja lineaaristen osittaisdifferentiaalioperaattoreiden välistä yhteyttä. Luvun lopussa esitellään tulos, jonka mukaan pseudodifferentiaalioperaattori kuvaa Schwartz-avaruuden itselleen. Luku kolme aloitetaan määrittelemällä asymptoottinen kehitelmä. Luvussa osoitetaan teorian kaksi perustulosta: kahden pseudodifferentiaalioperaattorin tulo ja pseudodifferentiaalioperaattorin adjungaatti ovat pseudodifferentiaalioperaattoreita. Näihin kahteen perustulokseen sisältyy myöskin tieto siitä, mihin symboliluokkaan tulo-operaattorin ja adjungaatin symboli kuuluvat ja niiden symboleille esitetään asymptoottiset kehitelmät. Luvussa neljä esitellään ja todistetaan Gårdingin epäyhtälö ja tarkka Gårdingin epäyhtälö. Luvussa laajennetaan tietoja pseudodifferentiaalioperaattoreista siinä määrin kuin on välttämätöntä Gårdingin epäyhtälöiden todistamiseksi. Yksi merkittävä pseudodifferentiaalioperaattoreihin liittyvä tulos, joka todistetaan luvussa 4, sanoo, että luokan S^0 pseudodifferentiaalioperaattori kuvaan L^2-avaruuden itselleen. Tästä syystä luvun ensimmäinen kappale on nimetty L^2-teoriaksi. Luvussa sivutaan myös Sobolev-avaruuksien teoriaa, sillä se on kytköksissä Gårdingin epäyhtälöihin. Viidennessä luvussa tarkastellaan evoluutioyhtälöä. Päämääränä on antaa esimerkki tarkan Gårdingin epäyhtälön soveltamisesta. Tämä esimerkki on tulos, jonka mukaan kyseisen evoluutioyhtälön ratkaisulle on olemassa aikaestimaatti. Tarkastelun kohteena oleva evoluutioyhtälö määritellään pseudodifferentiaalioperaattorin avulla.
  • Leppä-aho, Janne Lauri Antero (2014)
    Multivariate Gaussian distribution is an often encountered continuous distribution in applied mathematics and statistics due to its well known properties and wide applicability. In the graphical models framework, we make use of graphs to compactly represent the conditional independences between a set of random variables. Combining these two together leads to the class of Gaussian graphical models. This thesis discusses learning of Gaussian graphical models from multivariate data. Given the data, our goal is to identify the graphical structure that specifies the conditional independence statements between the variables under consideration. Following the footsteps of Pensar et al [10], we adopt a Bayesian, score-based approach for learning graphical models. Using pseudo-likelihood to approximate the true likelihood allows us to apply results of Consonni et al [4] to compute marginal likelihood integrals in closed form. This results in a method that can be used to make objective comparisons among Gaussian graphical models. We test the method numerically and show that it can be readily applied in high-dimensional settings. According to our tests, the method presented here outperforms the widely used graphical LASSO method in accuracy. The structure of this thesis is as follows. The chapters 2-4 discuss graphical models, multivariate Normal distribution and Bayesian model comparison in general. The fifth chapter goes through the results derived by Consonni, which are utilised in the next chapter to develop a scoring function and a learning algorithm for Gaussian graphical model selection. In the sixth chapter, we test the method in practice and present the obtained numerical results. The last appendix chapter is dedicated to the consistency proof, which gives the theoretical justification for the presented method.
  • Leppänen, Heidi (2013)
    Pro gradu -tutkielma käsittelee pseudostationaarifaasin ja analyyttien välisten vuorovaikutusten määrittämistä misellisessä elektrokineettisessä kapillaarikromatografiassa (MEKC). Tässä menetelmässä elektrolyyttiliuokseen lisätään pinta-aktiivista ainetta, joka muodostaa misellejä, jos niiden konsentraatio ylittää ns. kriittisen misellikonsentraation ja Kraftin lämpötilan. Misellit toimivat sitten erotuksissa pseudostationaarifaasina. Yhdisteiden erottuminen perustuu niiden elektroforeettisiin liikkuvuuksiin ja jakautumiseen misellifaasin ja vesipohjaisen elektrolyyttisysteemin välille. Näytemolekyylin erottuminen perustuu sekä elektroforeettisiin että kromatografisiin mekanismeihin. Analyyttien ja pseudostationaarifaasin välisten vuorovaikutusten arvioiminen auttaa ymmärtämään näyteyhdisteiden retentiomekanismeja sekä erilaisten pseudostationaarifaasien ominaisuuksia. Tutkielmassa on käyty läpi analyyttien ja pseudostationaarifaasin välisiä vuorovaikutuksia ilmaisevien tekijöiden määrittämistä. Yleisimmin vuorovaikutuksien kuvaamiseen on käytetty retentiotekijää ja jakautumisvakiota. Tutkielmassa on käsitelty myös analyyttien ja pinta-aktiivisen aineen monomeerien välisiä vuorovaikutuksia sekä ionisten yhdisteiden retention mallintamista. Vuorovaikutusten määrittämiseen ja pseudostationaarifaasien karakterisointiin on kehitetty erilaisia matemaattisia mallinnusmenetelmiä. Malleja kehitettäessä pyritään siihen, että ominaisuuksia ja retentiota voitaisiin arvioida ilman laajoja, aikaa vieviä kokeellisia mittauksia. Yleisimmin käytetty matemaattinen malli on lineaarinen solvaatioenergiasuhde. Sen avulla pyritään selvittämään vuorovaikutuksia, jotka kontrolloivat erilaisten misellifaasien retentiota ja selektiivisyyttä. Lineaarista solvaatioenergiasuhdetta hyödyntävät tutkimukset ovat osoittaneet, että hydrofobisten vuorovaikutusten lisäksi myös pinta-aktiivisen aineen pääryhmän spesifisimmillä vuorovaikutuksilla on merkitystä analyyttien retentioon ja selektiivisyyteen. Toinen varsin yleisesti käytetty matemaattinen malli on kvantitatiivinen rakenteen ja aktiivisuuden/retention malli, jolla yleensä pyritään selittämään yhdisteen retentiota käyttämällä yhtälössä tekijöitä, jotka perustuvat yhdisteiden rakenteellisiin ominaisuuksiin. Näiden mallien käyttö misellisessä elektrokineettisessä kapillaarikromatografiassa on vielä vähäistä verrattuna niiden käyttöön nestekromatografisissa menetelmissä. Tutkielmassa on esitelty lineaarista solvaatioenergiasuhdetta ja kvantitatiivista rakenteen ja aktiivisuuden/retention mallia hyödyntäviä julkaisuja vuosilta 2002–2012. Tutkielman kokeellisessa osassa perehdyttiin tähtipolymeerien ja liposomien käyttöön pesudostationaarifaaseina. Tarkoituksena oli tutkia kahdeksan sakaraisten tähtipolymeerien polymetyylimetakrylaatti-b-polyakryylihapon ja polybutyylimetakrylaatti-b-polyakryylihapon kykyä kompleksoida fullereenia määrittämällä analyytin ja pseudostationaarifaasin välisiä vuorovaikutuksia. Fullereeneilla ei havaittu olevan vuorovaikutuksia tähtipolymeerien muodostaman pseudostationaarifaasin kanssa. Kokeellisen osan toisessa osassa selvitettiin kaupallisen lipidipohjaisen Intralipidi-emulsion ja kahden muun liposomidispersion vuorovaikutuksia yhdeksän yleisesti käytetyn huumaus- ja lääkeaineen kanssa. Liposomit pseudostationaarifaasina mahdollistivat liposomien ja lääkeaineiden vuorovaikutusten tutkimisen.
  • Mannelli, Petriina (2019)
    Psykotrooppiset lääkeaineet vaikuttavat potilaan psyykeeseen. Tällaisiä lääkeaineita ovat esimerkiksi antipsykoottiset ja antidepressiiviset lääkeaineet. Ne ovat tehokkaita tautien hoidossa, mutta vakavien haittavaikutusten välttämäiseksi lääkeaineenpitoisuuden tasoa tulee seurata. Terapeuttisessa lääkkeen monitoroinnissa on tärkeää toteuttaa seurantasuunnitelmaa, etenkin klotsapiiniä sekä norklotsapiini käyttävien potilaiden kohdalla. Tämän maisterin tutkielman kirjallisessa osassa tarkastastellaan psykotrooppisten lääkeaineiden luokituksia ja molekyylirakennetta. Lisäksi siinä esitellään neste- ja kaasukromatografisia erotusmenetelmiä eri detektoreilla, sekä nestekromatografinen laitteisto. Kromatografiset menetelmät ovat tärkeässä roolissa nykyaikana määritettäessä psykotrooppisia lääkeaineita. Massaspektrometrin käyttö detektorina on yleistynyt huomattavasti, mutta kliinisessä työssä suositaan myös UV-Vis- detektoreja tai diodirividetektoreja. Usein näytteen esikäsittelyssä käytetään aikaa vievää sekä kallista neste-neste uuttoa. Joskus käytetään myös kapillaarissa tapahtuvaa kiinteäfaasiuuttoa tai saostusta. Tutkielman kokeellisessa osassa validoitiin analyysimenetelmä, LC-MS/MS, joka oli lineaarinen, selektiivinen, tarkka ja yksityiskohtainen, sekä toistettava. Lyhyt retentioaika, tehokas ja helppo näytteenesikäsittely saostamalla ja Tecan nesteensiirtorobotilla tehtävä näytteensiirto rutiinianalysointia varten oli suuri etu verrattuna käytössä olleeseen HPLC-UV/Vis- menetelmään. Nykyisellä kuoppalevyllä voidaan tehdä 96- näytteen sarja kun aiemmin pystyttiin analysoimaan vain 50 näytteen sarja. Menetelmä paransi myös muiden analysoitavien näytteiden häiritsevyyttä tarkemmalla detektorilla. Lisäksi tarkoituksena oli vähentää orgaanisten liuottimien kulutusta muuttamalla neste-nesteuutto proteiinien saostukseksi.
  • Nissinen, Hannu (2013)
    We consider the problem of finding a reasonable logical characterization for the complexity class PTIME in the class of all finite models. We approach this problem by adding a set Q_n of n-ary generalized quantifiers to the infinitary finite variable logic L^k_{∞ Ω}. More precisely, we show that it is not possible to characterize PTIME in such a way. This result is obtained by constructing models A(G) and B(G) which are L^k_{∞ Ω}(Q_n)-equivalent and by showing that there is a PTIME computable boolean query q such that q(A(G)) \neq q(B(G)) for any appropriate finite graph G.
  • Pärtel, Martin (2014)
    Ohjelmoinnissa puhdas funktio ei vaikuta ohjelman tilaan muuten kuin palauttamalla paluuarvon, joka riippuu ainoastaan annetuista parametreista. Jotkut ohjelmointikielet sallivat lähtökohtaisesti vain puhtaiden funktioiden kirjoittamisen. Nämä kielet ovat yleensä tyyliltään 'funktionaalisia', eli ne suosivat funktion toteutuksen esittämistä yhtenä lausekkeena tavanomaisemman 'imperatiivisen' lausejonon sijaan. Tutkielmassa esitellään uusi ohjelmointikieli Uniic, joka on tyyliltään imperatiivinen, mutta sallii vain puhtaiden funktioiden kirjoittamisen. Uniic käännetään puhtaasti funktionaaliselle kohdekielelle, mikä estää suunnittelemasta kieleen epäpuhtaita ominaisuuksia. Kääntäjästä on toteutettu prototyyppi. Funktionaalisessa kohdekielessä on Clean-kieleen perustuva uniikkityypitysjärjestelmä. Uniikkityypitys mahdollistaa epäpuhtaiden operaatioiden turvallisen mallintamisen rajoittamalla uniikiksi merkityt arvot yhteen käyttökertaan. Uniicin lähdekielessä on rakenne nimeltä lainaus, jolla ohjelmoija voi näennäisesti käyttää uniikkia arvoa monta kertaa. Lainaus on toteutettu siten, ettei kohdekielen uniikkityypitysjärjestelmää tarvitse muuttaa. Uniicin imperatiiviset piirteet sekä lainaus mahdollistavat koodin kirjoittamisen imperatiivisella tyylillä monessa tilanteessa, jossa olemassa olevat puhtaat kielet pakottavat funktionaaliseen tyyliin. Yritykset laajentaa Uniicia kielen puhtautta menettämättä auttavat hahmottamaan funktionaalisen ja imperatiivisen ohjelmoinnin eroavaisuuksia ja toisaalta myös potentiaalisia samankaltaisuuksia.
  • Sipilä, Suvi (2020)
    Clean and high-quality code affects the maintainability of software throughout the software lifecycle. Cleanliness and high-quality should be pursued from the software development phase. Nowadays, the software is developed rapidly, which is why the code must be easy to maintain. When the code is easy to maintain, it can basically be managed by any software developer. The thesis conducted a literature review of clean and high-quality code. The thesis aimed to find out what is clean and high-quality code in the class and function level. The purpose of the thesis was to explain why clean and high-quality code is necessary and how the clean and high-quality code can be improved with different tools such as metrics, refactoring, code review, and unit tests. The thesis also included a survey for software developers. The survey sought an answer to how clean and high-quality code practices are implemented in working life from the perspective of software developers. 103 software professionals responded to the survey. Based on the responses, 82,5 \% of respondents felt that they always or usually write clean and high-quality code. The main reasons why clean and high-quality code cannot be written were the challenges of the old codebase and schedule pressures. Writing code is a very people-oriented job, so we must understand the code and its purpose. The code must be simple and carefully written. When the code is clean and high-quality, it is easier to read and understand, and thus easier to maintain.
  • Vuoristo, Varpu (2021)
    Puolueiden kannatusmittaukset vaalien välillä tehdään kyselytutkimusten avulla. Näitä mielipidetiedusteluita kutsutaan kansankielellä termillä gallup. Tässä työssä perehdytään poliittisten mielipidetutkimusten historiaan sekä tehdään lyhyt katsaus galluppien nykytilanteeseen Suomessa. Tässä maisterintutkielmassa on ollut käytössä kyselytutkimuksella kerätyt aineistot. Aineistoissa on kysytty vastaajien äänestyskäyttäytymistä seuraavissa vaaleissa: kuntavaalit 2012, eduskuntavaalit 2015 sekä kuntavaalit 2017. Tutkielmassa esitellään kyselytutkimuksien kysymyksen asettelu, aineistojen puhdistamisen työvaiheita sekä perusteet mitkä tiedot tarvitaan tilastollisen mallin sovittamista varten. Teoriaosuudessa esitellään yleistettyjä lineaarisia malleja. Menetelmänä sovitetaan yleistetty lineaarinen malli valittuihin ja puhdistettuihin aluperäisten aineistojen osa-aineistoihin. Näissä osa-aneistoissa on tiedot vastaajien äänestyskäyttäytymisestä kahdeksan eri eduskuntapuolueen kesken. Lisäksi tilastollisen mallin sovittamista varten osa-aineistossa on tiedot vastaajien sukupuolesta sekä asuinpaikasta NUTS 2 -aluejaon mukaisesti. Sukupuoli ja viisi eri aluetta toimivat mallissa selittävinä muuttujina, kun taas puoluekannatus selitettävänä muuttujana. Aineiston käsittely on toteutettu R-laskentaohjelmalla. Tuloksissa on esitetään taulukointina selittävien muuttujien vaikutusta tarkasteltavan puolueen äänestämiseen, niin itsenäisinä selittäjinä kuin niiden yhteisvaikuksina. Jokaista kahdeksaa puoluetta tarkastellaan kaikkien kolmen vaaliaineiston osalta erikseen. Analysoinnin työkaluina toimivat suurimman uskottavuuden estimaattit sekä niiden luottamusvälit.
  • Kaasinen, Joel (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2011)
    The study of compressed data structures strives to represent information on a computer concisely — using as little space as possible. Compressed bit vectors are the simplest compressed data structure. They are used as a basis for more complex data structures with applications in, for example, computational biology. Functional programming is a programming paradigm that represents computation using functions without side-effects (such as mutation). Data structures that are representable in and suitable for functional programming are termed functional data structures. Functional data structures are also persistent: operations on them do not destroy previous versions. This thesis provides implementations of functional compressed bit vectors in the purely functional programming language Haskell. The implemented structures are analyzed and benchmarked against established imperative (C++) implementations. Applications of compressed bit vectors are also surveyed. This includes compressed wavelet trees, an implementation of which is also presented.
  • Laapas, Mikko (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2008)
    Tämä työ käsittelee Suomen ilmastoa puutarhakasvien näkökulmasta painopisteen ollessa lämpöilmastollisissa piirteissä ja kasvien talvehtimiseen liittyvissä tekijöissä. Työssä esitellään puutarhakasvien, erityisesti monivuotisten puuvartisten kasvien selviytymiseen vaikuttavia tekijöitä, ja näiden pohjalta kartoitetaan ilmastollisia olosuhteita eri puolilla Suomea viimeisen noin viiden vuosikymmenen ajalta. Lisäksi pyritään arvioimaan tuleville vuosikymmenille ennustetun lämpenemisen aiheuttamia muutoksia Suomen puutarhatuotannon menestymismahdollisuuksissa. Nykyilmaston osalta tarkastelu perustuu vuosien 1960-2006 päivittäisiin lumi- ja lämpötilahavaintoihin kymmenellä havaintopaikalla lounaisrannikolta Koillismaalle. Puutarhakasvien kannalta hyödyllisiä ja haitallisia ilmaston piirteitä pyrittiin kuvaamaan erilaisilla indekseillä, ns. kynnystapahtumien ajankohdilla ja erinäisten raja-arvojen ylittymisillä. Tulevaisuuden jaksojen 2010-39 ja 2040-69 osalta tilannetta tarkasteltiin A2- ja B1-skenaariossa. Työssä käytettiin ns. delta-menetelmää, missä 19 ilmastomallin keskiarvona saadut arviot kuukausikeskilämpötilojen noususta lisättiin havaintopaikkojen päivittäisiin vuosien 1971-2000 lämpötilahavaintoihin. Olosuhteet puutarhakasvien menestymiselle vaihtelevat paljon tarkastelussa olleella kolmelle kasvimaantieteelliselle vyöhykkeelle sijoittuvalla alueella. 1990-luvun alusta lisääntyneet leudot talvet näkyvät hyvin talvehtimisoloja kuvaavissa muuttujissa. Toisaalta havaintopaikkojen pienilmastolliset tekijät korostuvat erityisesti alueiden hallatilanteita tarkasteltaessa. Tulevaisuuden osalta monien puutarhakasvien talven selviytymisedellytyksiin vaikuttavien tekijöiden voidaan odottaa yleisesti parantuvan ilmaston lämmetessä, tosin Suomen ilmastossa pakkasvahinkojen riski on silti olemassa. Toisaalta entisestään leudontuvat talvet lämpöjaksoineen tulevat lisäämään mahdollisuutta kasvien kylmänkestävyyden heikkenemisestä aiheutuville ongelmille. Myöhäisten hallojen esiintymisen aiheuttamat vahingot riippuvat niitä edeltäneen ajan kasvuolosuhteista. Tällöin kasvukauden alun ajankohdassa, sen alkupuolen lämpimyydessä ja hallojen esiintymisen ajankohdassa tapahtuvien muutosten nettovaikutus ratkaisee myöhäisten hallatilanteiden kukinnalle muodostavan riskin tulevaisuudessa. Tästä ei saatu yksiselitteisiä tuloksia tämän tutkimuksen puitteissa, sillä hallariskiä kuvaavan indeksin käyttäytyminen oli varsin epämääräistä.