Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by Title

Sort by: Order: Results:

  • Vilhonen, Essi (2023)
    Many extensions to the Standard Model of particle physics feature a first-order phase transition in the very early universe. This kind of a phase transition would source gravitational waves through the collision of nucleation bubbles. These in turn could be detected e.g. with the future space-based gravitational wave observatory LISA (Laser Interferometer Space Antenna). Cosmic strings, on the other hand, are line-like topological defects. In this work, we focus on global strings arising from the spontaneous breakdown of a global symmetry. One example of global strings are axionic strings, which are a popular research topic, owing to the role of the axion as a potential dark matter candidate and a solution to the strong CP problem. In this work, our aim is to combine these two sets of early-universe phenomena. We investigate the possibility of creating global strings through the bubble collisions of a first-order phase transition. We use a simplified model with a two-component scalar field to nucleate the bubbles and simulate their expansion, obtaining a short-lived network of global strings in the process. We present results for string lifetime, mean string separations corresponding to different mean bubble separations, and gravitational wave spectra.
  • Blomqvist, Niclas (2016)
    The topography of the Earth's surface is the result of the interaction of tectonics, erosion and climate. Thus, topography should contain a record of these processes that can be extracted by topographic analysis. The question considered in this study is whether the spatial variations in erosion that have sculpted the modern topography are representative of the long-term erosion rates in mountainous regions. We compare long-term erosion rates derived from low-temperature thermochronometry to erosional proxies calculated from topographic and climatic data analysis. The study has been performed on a global scale including six orogens: The Himalaya, Andes, Taiwan, Olympic Mountains, Southern Alps in New Zealand and European Alps. The data was analyzed using a new swath profile analysis tool for ArcGIS called ArcSwath to determine the correlations between the long-term erosion rates and modern elevations, slope angles, relief in 2.5-km- and 5-km-diameter circles, erosion potential, normalized channel steepness index ksn, and annual rainfall. ArcSwath uses a Python script that has been incorporated into an ArcMap 10.2 add-in tool, extracting swath profiles in about ten seconds compared to earlier workflows that could take more than an hour. Swath profile analysis is a relatively common method for geomorphological research. A swath profile is a rectangular extraction of a digital model to a cross-section, where statistical parameters (minimum, mean and maximum) are presented along the profile length. In previous studies swath profiles have been used to identify relationships between topography and major structures, to compare various climatic, erosional and topographic data across a given orogen and along strike, and to recognize fluvially and glacially eroded forms. An unambiguous correlation between the topographic or climatic metrics and long-term erosion rates was not found. Fitting of linear regression lines to the topographic/climatic metric data and the long-term erosion rates shows that 86 of 288 plots (30%) have 'good' R2 values (> 0.35) and 135 of 288 (47%) have an 'acceptable' R2 value (> 0.2). The 'acceptable' and 'good' values have been selected on the basis of visual fit to the regression line. The majority of the plots with a 'good' correlation value have positive correlations, while 11/86 plots have negative slopes for the regression lines. Interestingly, two topographic profile shapes were clear in swath profiles: Concave-up (e.g., the central-western Himalaya and the northern Bolivian Andes) and concave-down or straight (e.g., the eastern Himalayas and the southern Bolivian Andes). On the orogen scale, the concave-up shape is often related to relatively high precipitation and erosion rates on the slopes of steep topography. The concave-down/straight profiles seem to occur in association of low rainfall and/or erosion rates. Though we cannot say with confidence, the lack of a clear correlation between long-term erosion rates and climate or topography may be due to the difference in their respective timescales as climate can vary over shorter timescales than 10^5-10^7 years. In that case, variations between fluvial and glacial erosion may have overprinted the erosional effects of one another.
  • Virolainen, Savi (2018)
    Erityisesti taloudellisissa ilmiöissä sekä niitä kuvaavissa aikasarjoissa esiintyy usein vaihtelua eri tilojen välillä, esimerkiksi markkinoiden vakauden heilahtelun aiheuttamana. Eri tilojen välillä vaihtelua selittämään kykeneviä aikasarjamalleja ovat muun muassa autoregressiiviset sekoitusmallit. Tällaisia ovat esimerkiksi GMAR-malli (Gaussian Mixture Autoregressive) ja StMAR-malli (Student's t Mixture Autoregressive), joihin perustuen tutkielmassa esitetään molempien piirteitä hyödyntävä G-StMAR-malli (Gaussian and Student's t Mixture Autoregressive). Autoregressiiviset sekoitusmallit voidaan ajatella kokoelmaksi lineaarisia autoregressiivisiä malleja, joista kutakin kutsutaan mallin komponentiksi. Kunkin komponentin ajatellaan kuvaavan kutakin ilmiössä esiintyvää tilaa. GMAR-mallissa komponenttien oletetaan olevan normaalisia autoregressiivisiä prosesseja, kun taas StMAR-mallissa ne ovat t-jakaumaan perustuvia, ehdollisesti heteroskedastisia autoregressiivisiä prosesseja. StMAR-mallin komponenttien ehdollisen varianssin riippuvuus samoista parametreista kuin ehdollinen odotusarvo voi kuitenkin olla rajoittava tekijä tapauksissa, joissa komponenttikohtainen ehdollinen odotusarvo on vahva, mutta ehdollinen varianssi heikko. Tästä syystä StMAR-malli yleistetään tutkielmassa G-StMAR-malliksi sallimalla osan sen komponenteista perustuvan GMAR-mallin käyttämiin normaalisiin autoregressiivisiin prosesseihin, joissa ehdollisen varianssin oletetaan olevan vakio. Tutkielmassa esitellään GMAR-malli ja StMAR-malli, ja määritellään niiden pohjalta G-StMAR-malli. Lisäksi osoitetaan, että GMAR-mallin ja StMAR-mallin houkuttelevat teoreettiset ominaisuudet, kuten ergodisuus ja stationaarisen jakauman tunteminen, periytyvät ilmeisellä tavalla myös G-StMAR-mallille. Mallien esittelemisen jälkeen tutkielmassa kerrotaan lyhyesti, kuinka esitetyt mallit voidaan estimoida kaksivaiheista menetelmää käyttäen, miten malleille voidaan valita sopivat asteet, kuinka kvantiiliresiduaaleja voidaan hyödyntää mallin sopivuuden tarkastelemisessa ja miten taustalla olevan prosessin tulevia havaintoja voidaan ennustaa simulaatiomenettelyllä. Tutkielman empiirisessä osiossa tutkitaan, millaisiksi G-StMAR-mallin parametrit estimoituvat pohjana olevaan StMAR-malliin verrattuna, ja lisäksi mallien ennustetarkkuuksia vertaillaan toisiinsa. Esimerkkiaineistona käytetään Standard & Poor's 500 osakemarkkinaindeksin päivittäistä volatiliteettia kuvaavaa, ajanjakson 3.1.2000-20.5.2016 kattavaa aikasarjaa. Tutkielman tulosten perusteella StMAR- ja G-StMAR-mallien ennustetarkkuuksien välillä ei voida sanoa olevan juurikaan eroa, mutta joissakin tapauksissa voidaan G-StMAR-malliin siirtymällä välttää StMAR-mallin parametrien estimaatteja koskevia ongelmia.
  • Karttunen, Henri (2015)
    Aikasarjoissa ilmenevien ei-normaalisten piirteiden mallintamiseen voidaan käyttää epälineaarisia aikasarjamalleja, joista erityisesti tutkielmassa tarkastellaan autoregressiivisia sekoitusmalleja. Autoregressiiviset sekoitusmallit määritellään sekoituksena lineaarisista autoregressiivisista malleista ja erona eri sekoitusmallien välillä on niiden sekoitussuhteiden määrittely. Autoregressiivisella GMAR (Gaussian Mixture Autoregressive)-sekoitusmallilla on houkuttelevia teoreettisia ominaisuuksia, sillä sen stationaarinen jakauma tunnetaan ja sen stationaarisuusehto ja ergodisuus voidaan johtaa ilman lisärajoituksia parametreille. Kuitenkin sekoitussuhteiden monimutkaisesta määrittelystä johtuen sen parametrien estimointi käyttäen kirjallisuudessa usein käytettyä EM-algoritmia on hankalaa. Tästä syystä tutkielmassa selvitetään mahdollisuutta käyttää parametrien estimoinnissa kaksivaiheista menetelmää, jossa geneettisen algoritmin avulla etsitään alkuarvoja gradienttiperusteiselle optimointialgoritmille. Parametrien estimoinnin lisäksi tutkielmassa tarkastellaan mallinvalintaa osana estimointiprosessia. Tarkasteltavia työkaluja sopivan mallin etsinnässä ovat informaatiokriteerit sekä erilaiset kvantiiliresiduaaleihin perustuvat testit, joiden avulla voidaan tehdä mallidiagnostiikkaa tavallisten residuaalien tapaan myös silloin, kun tavallisia residuaaleja ei voida käyttää. Lisäksi tarkastellaan ennusteiden laskemista simulaatioiden avulla ja esitetään miten GMAR-mallia voidaan simuloida. Tutkielman empiirisessä osassa tarkastellaan kahta esimerkkiä, joista ensimmäisessä keskitytään estimointiin, mallinvalitaan ja diagnostiikkaan. Tässä esimerkissä aineistona käytetään yhdysvaltain kuukausittaista inflaatiota vuodesta 1975 vuoteen 2015. Toisessa empiirisessä esimerkissä tarkastellaan tuulen nopeuksia päivittäisen aineiston avulla ja keskitytään erityisesti ennusteiden laskemiseen. Tuulen nopeutta mittaava aineisto on ei-negatiivinen aikasarja ja siksi esimerkissä tarkastellaan estimointia logaritmoidun sarjan avulla ja alkuperäisen sarjan ennustamista. Tutkielman tulosten perusteella kaksivaiheinen estimointi käyttäen geneettistä algoritmia toimii GMAR-mallin tapauksessa hyvin ja kohtuullisessa ajassa.
  • Lindroos, Linda (2013)
    III-V nanowires (NWs) are emerging as a new class of interesting nanostructures that hold promising potential for future generation electronic and optoelectronic devices. NWs are most often grown epitaxially via the vapor-liquid-solid (VLS) mechanism, which allows, in ideal case, an accurate control of diameter, length, crystal phase, doping concentration and junction formation. The biggest challenge in the field of NWs is, however, the controlled growth and understanding of the underlying mechanism. The aim of the experimental part in this work was to optimize the growth parameters and to improve the optical properties of Au assisted growth of InP NWs on silicon and glass substrates using atmospheric pressure metal-organic vapor phase epitaxy (MOVPE). The growth parameters of InP NWs on Si (111) substrate were optimized in terms of substrate pre-treatments, growth temperature, V/III ratio, and Zn doping. Consistent with the earlier results, all the growth parameters were found to affect the morphological and optical quality of the NWs. In addition, the NWs exhibited a strong quantum confinement for diameters below 20 nm. To improve the optical properties, surface passivation of InP NWs was investigated. Core-shell structures were formed both in situ with MOVPE and ex situ with atomic layer deposition (ALD). Growth of InP NWs on low-cost glass substrates was also studied and encouraging results were achieved. The results in this work can be used as a basis for further studies of more complex InP-based NWs.
  • Salminen, Samu (2016)
    Tämä Pro Gradu -tutkielma käsittelee työntekijän eläkelain (TyEL) nykyisin käytössä olevan Gompertz-kuolevuusmallin sopivuutta kuvaamaan TyEL:n selektiä kuolevuutta vanhuuseläkeliikkeessä. Tutkielman tarkoitus on nostaa esiin nykymallin ongelmakohdat ja esitellä Gompertz-kuolevuusmallin laajennus, joka ainakin osin korjaisi nykymallin puutteita pysymällä kuitenkin järjestelmätekniseltä kannalta tarpeeksi yksinkertaisena. Keskeisiksi teemoiksi tutkielmassa nousee elämänvaravakuutuksen yleisen teorian sekä työntekijän eläkelain vanhuuseläkeliikkeen vakuutustekniikan lisäksi toteutuvan kuolevuuden ennustaminen Lee-Miller-mallin sovelluksella ja laajennetun Gompertz-kuolevuusmallin parametrien estimointi havaintoaineistosta. Havaintoaineistona tutkielmassa käytetään sekä Tilastokeskuksen väestökuolevuuksia että TyEL:n riskiperusteanalyysien mukaisia toteutuneita rahapainotettuja kuolevuuksia. Ennustemalli on laadittu käyttäen R- ja Excel-ohjelmistoja (ml. VBA). Kuolevuusmallin laajennusta on kehitetty työeläkejärjestelmässä vuodesta 2014 laskuperusteasiain neuvottelukunnan alaisessa kuolevuusperustejaoksessa, jonka sihteerinä tutkielman kirjoittaja on toiminut vuosina 2014 ja 2015. Puheenjohtajayhtiönä kyseisinä vuosina on toiminut Keskinäinen Työeläkevakuutusyhtiö Elo ja puheenjohtajana tämän tutkielman toinen tarkastaja Tuomas Hakkarainen. Kuolevuusperustejaoksessa on edustus jokaisen työeläkeyhtiön lisäksi eläkekassoilla ja eläkesäätiöillä, Sosiaali- ja terveysministeriöllä, Eläketurvakeskuksella sekä Kevalla (julkisen puolen eläkkeet). Kuolevuusmallin valinnalla ja osuvuudella on merkitystä vanhuuseläkeliikkeessä, sillä se määrää pääoma-arvokertoimet, joilla varaudutaan vastaisten ja alkaneiden vanhuuseläkkeiden suorituksiin tulevaisuudessa. Tutkielmassa esitelty uusi kuolevuusmalli otetaan käyttöön vuoden 2017 eläkeuudistuksen yhteydessä, eli ensimmäisen kerran vanhuuseläkeliikkeen vanhuuseläkevastuut lasketaan sen mukaisina vuoden 2016 lopussa. Vanhuuseläkemaksu määräytyy uuden mallin mukaisesti vuodesta 2017 alkaen.
  • Anttila, Susanna (2015)
    The purpose of this study is to establish the readiness of high school geography teachers in teaching information and communication technology (ICT), with a particular focus on teaching the use of Google Earth. The aim was to acquire the first research results on the use of Google Earth in teaching, user experiences, and factors that may increase its use. Furthermore, the purpose of the game experiment was to raise awareness of the suitability of Google Earth for teaching, and of the possibilities of using games in high school geography tuition. The skills and attitudes of Finnish high school geography teachers (n = 103) were charted using an electronic survey. The game trial (n = 31) was implemented as a field experiment in a first year geography class at a high school in Helsinki. Two of the teachers teaching the course were also interviewed. The results were analysed using a statistical analysis program and presented through graphs and citations. Based on the study, the teachers' IT skills were good, but heterogeneous. Teacher training had not equipped the teachers sufficiently in using technology; instead, their practical skills had been acquired through self-study, supplementary training, and peer support. The majority of the teachers used Google Earth in their classes. Google Earth is ideal for high school lessons, particularly for teaching geographical thinking and geoinformatics, due to its ease of use, versatility, and the fact that it is free of charge. Its use was however very occasional and mostly teacher-led. Student directed use was most prominent during the regional studies (GE4) course. The Google Earth learning game on vegetation zones increased student motivation and positively influenced the learning process. Teachers and students alike were interested in using Google Earth as one of the high school geography learning environments in the future. Geography teachers expressed a need for supplementary training that is practical in nature, and for ready-made teaching ideas and exercises to increase the use of Google Earth. To enable this, supplementary training must be equally developed in all parts of Finland, and the applicability of today's teacher training to the demands of the job of a teacher should be reviewed. The new national high school curriculum, the soon-to-be electronic matriculation examinations as well as the new distribution of lessons enables discussion on the central content and objectives of geography tuition, especially on the portion of geoinformatics as well as ICT.
  • Lipsunen, Werner (2023)
    This thesis examines the implementation of general purpose graphics processing unit (GPGPU) acceleration to a non-equilibrium Green’s function (NEGF) equation solver in the context of a computational photoelectrochemical (PEC) cell model. The goal is to find out whether GPGPU acceleration of the NEGF equation solver is a viable option. The current model does not yet have electron-photon scattering, but from the results it is possible to assess the viability of GPGPU acceleration in the case of a complete PEC cell model. The viability of GPGPU acceleration was studied by comparing the performance difference of two graphics processing unit (GPU) solutions against a multi core central processing unit (CPU) solution. The difference between the two GPU solutions was in the used floating-point precision. The GPU solutions would use LU factorization to solve the NEGF equations, and the CPU solution a banded solver (Gauss tridiagonal) provided by Scipy Python package. The performance comparison was done on multiple different GPU and CPU hardware. The electrical transport properties of the PEC cell were modeled by a self-consistent process in which the NEGF and Poisson equations were solved iteratively. The PEC cell was described as a semiconductor device connected with a metal and electrolyte contacts. The device was assumed to be a simple one dimensional tight-binding atom chain made of GaAs, where the transverse modes in the y–z plane are treated with a logarithmic function. The computational model did lack electron-photon scattering, which would be implemented in the future. From the benchmark results, it can be concluded that the GPGPU acceleration via LU factorization is not a viable option in the current code or in the complete model with electron-photon scattering and the assumed approximations. The parallel multi-core CPU code generally outperformed the GPU codes. The key weakness of the GPU code was the usage of LU factorization. Despite of this, there could be an opportunity for GPGPU acceleration if a more complex lattice structure and more exact scattering terms would be used. Also, a GPU accelerated tridiagonal solver could be a possible solution.
  • Tompuri, Seppo (2014)
    Tietokonepelit on kehitetty perinteisesti joko pöytätietokoneille tai pelikonsoleille. Räjähdysmäisesti kasvaneet mobiilipelimarkkinat ovat kuitenkin haastaneet nämä pelialustat. Mobiilipelien kehitys tapahtuu usein samalla tyylillä kuin pöytätietokoneille ja pelikonsoleille, vaikka niistä löytyy pöytätietokoneista ja pelikonsoleista poikkeavaa tekniikkaa, joka mahdollistaa perinteisestä poikkeavan käyttäjäsyötteen. Nykyaikaisista mobiililaitteista löytyy muun muassa erilaisia ympäristöä tarkkailevia sensoreita sekä usein myös GPS-vastaanotin. GPS-vastaanotin tarjoaa pelin käyttöön pelaajan sijaintitiedon. Sensorit puolestaan tarkkailevat mobiililaitteen ympäristöä, kuten mobiililaitteen kiihtyvyyksiä kolmessa ulottuvuudessa. Sensoreilta saatua dataa voidaan käyttää käyttäjäsyötteessä joko suoraan tai muokattuna. Niiltä saadun datan avulla on myös mahdollista päätellä pelaajan tekemät eleet, jotka voidaan hahmontunnistuksen avulla sitoa osaksi pelin käyttäjäsyötettä. Tällainen mobiililaitteiden mahdollistama uudenlainen käyttäjäsyöte mahdollistaa uudenlaisia peligenrejä, jotka käyttävät pelaajan liikettä ja sijaintitietoa osana pelimekaniikkaa. Tämä työ esittelee ne pelimoottorin osat jotka ovat mukana GPS- ja sensoridatan keräämisessä ja käsittelyssä sekä esittelee tässä työssä suunnitellun GPS- ja sensoridataa hyödyntävän arkkitehtuurimallin mobiililaitteille. Työssä perehdytään aluksi aiheeseen liittyviin käsitteisiin sekä pelin reaaliaikaisuudesta huolehtivaan pelisilmukkaan ja sen erilaisiin arkkitehtuurimalleihin. Tämän jälkeen käydään läpi pelimoottorien suoritusaikaisesta arkkitehtuurista ne puolet, jotka liittyvät GPS- ja sensoridatan keräämiseen. Lopuksi esitellään ja arvioidaan tässä työssä suunniteltu arkkitehtuurimalli GPS- ja sensoridatan hyödyntämiselle mobiililaitteiden pelimoottoriarkkitehtuurissa. Työn ohessa tämän ehdotetun mallin toimivuus todennetaan Windows Phone 8 laitealustalle tehdyllä toteutuksella ja tämän toteutuksen lähdekoodia käytetään apuna ehdotetun mallin esittelyssä.
  • Tyrväinen, Lasse (2016)
    Learning a model over possible actions and using the learned model to maximize the obtained reward is an integral part of many applications. Trying to simultaneously learn the model by exploring state space and maximize the obtained reward using the learned model is an exploitation-exploitation tradeoff. Gaussian process upper confidence bound (GB-UCB) algorithm is an effective method for balancing between exploitation and exploration when exploring spatially dependent data in n-dimensional space. The balance between exploration and exploitation is required to limit the amount of user feedback required to achieve good prediction result in our context-based image retrieval system. The system starts with high amount of exploration and — as the confidence in the model increases — it starts exploiting the gathered information to direct the search towards better results. While the implementation of the GP-UCB is quite straightforward, it has time complexity of O(n^3) which limits its use in near real-time applications. In this thesis I present our reinforcement learning image retrieval system based on GP-UCB, with the focus on speed requirements for interactive applications. I also show simple methods to speed up the algorithm running time by doing some of the Gaussian process calculations on the GPU.
  • Jylhä-Ollila, Pekka (2020)
    K-mer counting is the process of building a histogram of all substrings of length k for an input string S. The problem itself is quite simple, but counting k-mers efficiently for a very large input string is a difficult task that has been researched extensively. In recent years the performance of k-mer counting algorithms have improved significantly, and there have been efforts to use graphics processing units (GPUs) in k-mer counting. The goal for this thesis was to design, implement and benchmark a GPU accelerated k-mer counting algorithm SNCGPU. The results showed that SNCGPU compares reasonably well to the Gerbil k-mer counting algorithm on a mid-range desktop computer, but does not utilize the resources of a high-end computing platform as efficiently. The implementation of SNCGPU is available as open-source software.
  • Cauchi, Daniel (2023)
    Alignment in genomics is the process of finding the positions where DNA strings fit best with one another, that is, where there are the least differences if they were placed side by side. This process, however, remains very computationally intensive, even with more recent algorithmic advancements in the field. Pseudoalignment is emerging as a new method over full alignment as an inexpensive alternative, both in terms of memory needed as well as in terms of power consumption. The process is to instead check for the existence of substrings within the target DNA, and this has been shown to produce good results for a lot of use cases. New methods for pseudoalignment are still evolving, and the goal of this thesis is to provide an implementation that massively parallelises the current state of the art, Themisto, by using all resources available. The most intensive parts of the pipeline are put on the GPU. Meanwhile, the components which run on the CPU are heavily parallelised. Reading and writing of the files is also done in parallel, so that parallel I/O can also be taken advantage of. Results on the Mahti supercomputer, using an NVIDIA A100, shows a 10 times end-to-end querying speedup over the best run of Themisto, using half the CPU cores as Themisto, on the dataset used in this thesis.
  • Laanti, Topi (2022)
    The research and methods in the field of computational biology have grown in the last decades, thanks to the availability of biological data. One of the applications in computational biology is genome sequencing or sequence alignment, a method to arrange sequences of, for example, DNA or RNA, to determine regions of similarity between these sequences. Sequence alignment applications include public health purposes, such as monitoring antimicrobial resistance. Demand for fast sequence alignment has led to the usage of data structures, such as the de Bruijn graph, to store a large amount of information efficiently. De Bruijn graphs are currently one of the top data structures used in indexing genome sequences, and different methods to represent them have been explored. One of these methods is the BOSS data structure, a special case of Wheeler graph index, which uses succinct data structures to represent a de Bruijn graph. As genomes can take a large amount of space, the construction of succinct de Bruijn graphs is slow. This has led to experimental research on using large-scale cluster engines such as Apache Spark and Graphic Processing Units (GPUs) in genome data processing. This thesis explores the use of Apache Spark and Spark RAPIDS, a GPU computing library for Apache Spark, in the construction of a succinct de Bruijn graph index from genome sequences. The experimental results indicate that Spark RAPIDS can provide up to 8 times speedups to specific operations, but for some other operations has severe limitations that limit its processing power in terms of succinct de Bruijn graph index construction.
  • Lankinen, Juhana (2020)
    Due to the unique properties of foams, they can be found in many different applications in a wide variety of fields. The study of foams is also useful for the many properties they share with other phenomena, like impurities in cooling metals, where the impurities coarsen similarly to bubbles in foams. For these and other reasons foams have been studied extensively for over a hundred years and continue being an interesting area of study today due to new insights in both experimental and theoretical work and new applications waiting to be used and realized in different industries. The most impactful early work in the study of the properties of foams was done in the late 1800s by Plateau. His work was extended in the early to mid-1900s by Lifshitz, Slyozov, Wagner and von Neumann and by many more authors in recent years. The early work was mostly experimental or theoretical in the sense of performing mathematical calculations on paper, while the modern methods of study have kept the experimental part -- with more refined methods of measurement of course -- but shifted towards the implementation of the theory as simulations instead of solving problems on paper. In the early 90s Durian proposed a new method for simulating the mechanics of wet foams, based on repulsive spring-like forces between neighboring bubbles. This model was later extended to allow for the coarsening of the foam, and a slightly changed version of this model has been implemented in the code presented in this thesis. As foams consist of a very large number of bubbles, it is important to be able to simulate sufficiently large systems to realistically study the physics of foams. Very large systems have traditionally been too slow to simulate on the individual bubble level in the past, but thanks to the popularity of computer games and the continuous demand for better graphics in games, the graphics processing units have become very powerful and can nowadays be used to do highly parallel general computing. In this thesis, a modified version of Durian's wet foam model that runs on the GPU is presented. The code has been implemented in modern C++ using Nvidia's CUDA on the GPU. Using this program first a typical two-dimensional foam is simulated with 100000 bubbles. It is found that the simulation code replicates the expected behaviour for this kind of foam. After this, a more detailed analysis is done of a novel phenomenon of the separation of liquid and gas phases in low gas fraction foams that arises only with sufficiently large system sizes. It is found that the phase separation causes the foam to evolve as would a foam of higher gas fraction until the phases have mixed back together. It is hypothesized that the reason causing the phase separation is related to uneven energy distribution in the foam, which itself is related to jamming and uneven distribution of the sizes of the bubbles in the foam.
  • Vasilev, Nikolay (2016)
    Vuosien 2007–2009 finanssikriisi mullisti isojen rahoituslaitosten riskipolitiikan. Henkivakuutus- ja sijoitustoimintaa harjoittavien konsernien valvontaa on tiukennettu entisestään, ja riskienhallintaan on kiinnitetty entistä paljon enemmän huomiota. Riskianalyysi on kuitenkin pitkä ja laskennallisesti raskas prosessi, johon sisältyy erilaisten riskimittojen arviointi ja mahdollisesti salkun tasapainottaminen. Value at Risk (lyh. VaR) on hyvin suoraviivainen tapa mitata sijoitussalkun kokonaisriskiä – se kertoo salkun pahimman tappion tietyllä luottamustasolla. Tappion arvioiminen voi olla kuitenkin vaikeaa, sillä sijoituspankkien ja henkivakuutusyhtiöiden valtavat salkut tietävät monimutkaisia laskelmia, jotka puolestaan vaativat suurta laskentatehoa ja vievät paljon aikaa. Tämän takia on viime aikoina yritetty tehostaa riskilaskentaan käytettäviä ohjelmia muun muassa näytönohjainten tarjoamaa massiivista rinnakkaisuutta hyödyntämällä. Tässä opinnäytetyössä tutustutaan käsitteeseen VaR sekä numeerisiin menetelmiin sen mittaamiseen, ja tutkitaan rinnakkaislaskennan NVIDIA:n CUDA-ohjelmointikehyksellä saatavia nopeutuksia. Osoitetaan, että joissakin tapauksissa suoritusaika voi pudota murto-osaan entisestään, ja tarkastellaan, kuinka tärkeä rooli tiedonsiirrolla ja muistiviittauksilla voi olla nopeutuksen kannalta. Vähentämällä tiedonsiirtoja ja tehostamalla GPU-laitteen muistinhallintaa tässä työssä saadaan 7,8x-kertainen nopeutus verrattuna tavalliseen prosessoritoteutukseen.
  • Mäkelä, Mikko (2015)
    Grafeeni ja grafeenioksidi ovat kaksiulotteisia hiilimateriaaleja. Grafeeni koostuu pääosin sp2-hybridisoituneista hiiliatomeista. Grafeenioksidissa sp2-hybridisoituneiden hiiliatomien verkkoon on kiinnittynyt happea sisältäviä funktionaalisia ryhmiä ja osa hiiliatomeista on siten sp3-hybridisoituneita. Grafeenia voidaan erotella grafiitista erilaisin menetelmin tai valmistaa atomi kerrallaan. Grafeenioksidin valmistuksessa grafiitti hapetetaan esimerkiksi kloraateilla. Sekä grafeenia että grafeenioksidia voidaan muokata kovalenttisesti tai supramolekulaarisesti. Muokkauksella tavoitellaan usein materiaalin parempaa käsiteltävyyttä tai uudenlaisen toiminnallisuuden, kuten katalyyttisen aktiivisuuden tai sensoriominaisuuksien, saavuttamista. Katalyyttisissä prosesseissa muokkaamattoman grafeenin ja grafiitin sovelluksia ei ole monia. Sen sijaan grafeenioksidia on käytetty happokatalyytin tavoin sekä hapettimena monissa kemiallisissa prosesseissa, kuten alkyynien hydrauksissa, bentsyylialkoholien hapetuksessa aldehydiksi ja amiinien hapettavassa kytkennässä. Aktiivihiili on kolmiulotteinen huokoinen grafiitin kaltainen materiaali. Siitä on mahdollista valmistaa eri tavoin hapettuneita aktiivihiiliä typpihapon tai kuningasveden avulla. Hapetusolosuhteet vaikuttavat paljon syntyvän tuotteen funktionaalisten ryhmien jakaumaan. Eri tavoin valmistetuilla aktiivihiilillä on myös toisistaan poikkeava katalyyttinen aktiivisuus 2-aryyli-indolien homokytkentäreaktiossa.
  • Tantarimäki, Mika (2015)
    Grafiikkaprosessorin avustama järjestäminen on hyödyllistä tilanteissa, joissa keskusyksikkö ei pysty järjestämään syötettä riittävän nopeasti, tai jos syöte on jo valmiiksi grafiikkaprosessorin muistissa muun laskennan yhteydessä. Tässä työssä käydään läpi pikajärjestämisen, kantalukujärjestämisen ja lomitusjärjestämisen peräkkäin toimivat algoritmit ja selitetään uusimpien tutkimusten perusteella, kuinka niitä sovelletaan grafiikkaprosessorille rinnakkain suoritettavaksi. Lomitusvaihtojärjestäminen toteutettiin CUDA-alustalle ja sen suorituskykyä verrattiin Thrust-kirjaston lomitus- ja kantalukujärjestämistoteutuksiin. Mittausten mukaan lomitusvaihtojärjestäminen on keskusyksikössä toimivaa pikajärjestämistä nopeampi, mutta se ei pärjää suorituskyvyssä kirjaston toteutuksiin, kun syötteen alkioiden lukumäärä kasvatetaan. Lisäksi mitattiin, miten syötteen alkioiden koon muuttaminen vaikuttaa mainittujen kolmen toteutuksen järjestämisnopeuksiin. Kokeiden mukaan kantalukujärjestäminen on nopein, kun alkiot ovat muutaman tavun kokoisia, mutta alkioiden koon kasvaessa lomitusjärjestäminen menee suorituskyvyssä edelle.
  • Lavikka, Kari (2020)
    Visualization is an indispensable method in the exploration of genomic data. However, the current state of the art in genome browsers – a class of interactive visualization tools – limit the exploration by coupling the visual representations with specific file formats. Because the tools do not support the exploration of the visualization design space, they are difficult to adapt to atypical data. Moreover, although the tools provide interactivity, the implementations are often rudimentary, encumbering the exploration of the data. This thesis introduces GenomeSpy, an interactive genome visualization tool that improves upon the current state of the art by providing better support for exploration. The tool uses a visualization grammar that allows for implementing novel visualization designs, which can display the underlying data more effectively. Moreover, the tool implements GPU-accelerated interactions that better support navigation in the genomic space. For instance, smoothly animated transitions between loci or sample sets improve the perception of causality and help the users stay in the flow of exploration. The expressivity of the visualization grammar and the benefit of fluid interactions are validated with two case studies. The case studies demonstrate visualization of high-grade serous ovarian cancer data at different analysis phases. First, GenomeSpy is being used to create a tool for scrutinizing raw copy-number variation data along with segmentation results. Second, the segmentations along with point mutations are used in a GenomeSpy-based multi-sample visualization that allows for exploring and comparing both multiple data dimensions and samples at the same time. Although the focus has been on cancer research, the tool could be applied to other domains as well.
  • Halin, Mikko (2019)
    Graphs are an intuitive way to model connections between data and they have been used in problem solving since the 18th century. In modern applications graphs are used, e.g., in social network services, e-commerce sites and navigation systems. This thesis presents a graph-based approach for handling data and observing identities from network traffic.
  • Sainio, Rita Anniina (2023)
    Node classification is an important problem on networks in many different contexts. Optimizing the graph embedding has great potential to help improve the classification accuracy. The purpose of this thesis is to explore how graph embeddings can be exploited in the node classification task in the context of citation networks. More specifically, this thesis looks into the impact of different kinds of embeddings on the node classification, comparing their performance. Using three different similarity functions and different dimensions for the embedding vector ranging from 1 to 800, we examined the impact of graph embeddings on accuracy in node classification using three benchmark datasets: Cora, Citeseer, and PubMed. Our experimental results indicate that there are some common tendencies in the way dimensionality impacts the graph embedding quality regardless of the graph. We also established that some network-specific hyperparameter tuning clearly affects classification accuracy.