Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by Title

Sort by: Order: Results:

  • Virranjoki, Ida-Reetta (2016)
    Sää vaikuttaa moneen eri yhteiskunnan osa-alueen toimintaan, kuten liikennejärjestelmiin. Vaikeat sääolosuhteet heikentävät sekä liikennejärjestelmien täsmällisyyttä että turvallisuustasoa, ja aiheuttavat siten palvelutason alenemista. Rautatieliikenteessä vaikeat sääolosuhteet voivat aiheuttaa merkittäviä myöhästymisiä ja mittavia taloudellisia menetyksiä, mistä johtuen niiden tarkastelu on tärkeää. Tässä pro gradu -tutkielmassa tarkasteltiin, mitkä sääilmiöt vaikuttavat rautatieliikenteen täsmällisyyteen Suomessa tarkastelemalla vallitsevaa säätilaa tilanteissa, joissa rautatieliikenteen kaukoliikenteessä on havaittu myöhästymisiä tammikuun 2013 ja maaliskuun 2016 välisellä ajanjaksolla. Tarkastelun avulla pyrittiin myös selvittämään, mikä tai mitkä sääilmiöt aiheuttavat eniten rautatieliikenteen myöhästymisiä, ja mitkä tekijät vaikuttavat kyseessä olevan sääilmiön ennustettavuuteen ja sen kehittämiseen. Aineistona käytettiin VR Group Oy:ltä (Skyttä, 2016) saatua rautatieliikenteen täsmällisyystilastoa, johon on kirjattu säähän liittyville syykoodeille sää ja lumieste merkityt viiveet ja myöhästymiset. Osin täsmällisyystietoja on haettu myös Liikenneviraston avoimen rajapinnan Digitraffic-palvelusta käyttöluvalla Creative Commons Nimeä 4.0. Vallitsevan säätilan tarkasteluun ja myöhästymisten luokitteluun sääilmiöittäin käytettiin Ilmatieteen laitoksen ennusteita, varoituksia ja havaintoja. Tarkastelun perusteella merkittävimpiä rautatieliikenteen täsmällisyyteen vaikuttavia sääilmiöitä ovat lumisade ja pakkanen. Eniten löydettiin lumisateeseen liittyviä myöhästymistapauksia (111 kappaletta). Lumisateet liittyivät useimmiten keskileveysasteiden matalapaineiden okluusiorintamiin, joissa havaittiin suurimmat lumikertymät ja merkittävimmät myöhästymiset. Myös vesistöjen nostattamilla ja rannikkokonvergenssin voimistamilla lumikuuroilla on vaikutusta rautatieliikenteen täsmällisyyteen. Lumisateiden ennustamisessa ja vaikutusten ennakoinnissa tärkeintä on tunnistaa tapaukset, joissa luntaa kertyy laajoille ja rautatieliikenteen kannalta kriittisille alueille.
  • Porceddu, Sebastian (Helsingin yliopistoUniversity of HelsinkiHelsingfors universitet, 2007)
    This study presents an analysis of the calendars of lucky and unlucky days by the application of the Rayleigh Test. In these ancient Egyptian texts each day of the year is assigned a so-called prognosis, which can be 'good' or 'bad' for each part of the day. The purpose of the analysis is to find out, whether the lucky and unlucky days were randomly or periodically distributed within the year. The period of 29.5 days found in the prognoses with a considerably high significance, represents the effect of the synodic month to the calendars. The found periods of 7.5 and 30 days suggest that the ancient Egyptian civil calendar also had influence on determining the prognoses. Other significant periods are also found in the time series, possibly based on a numerological meaning. The period of 2.85 is possibly a sign of an ancient Egyptian observation of the star Algol, which is one of the best known eclipsing variable stars. If this were the case, it could be the oldest known determination of the period of a variable star in history.
  • Mannerkoski, Matias (2018)
    This thesis presents a ray-tracing based method for performing polarized radiative transfer in arbitrary spacetimes and a numerical implementation of said method. This method correctly accounts for general relativistic effects on the propagation of radiation, and the polarized im- ages and spectra it produces can be directly compared with observations. Thus it is well suited for studying systems where relativistic effects are significant, such as compact astrophysical objects. The ray-tracing method is based on several approximations, which are discussed in depth. The most important one of these is the geometric optics approximation, which is derived starting from Maxwell’s equations. In the geometric optics approximation, high frequency radiation is described as amplitudes or intensities which are propagated along geodesic rays. Additional assumptions about the properties of the radiation field allow describing it and its interaction with matter using the formalism of kinetic theory, which leads to a simple transfer equation along rays. This transfer equation is valid in arbitrary spacetimes, and forms the basis for the ray-tracing method. The ray-tracing method presented in this work and various similar methods described in the literature are not suited for analytic computations using realistic models. Instead numerical methods are needed. Such numerical methods are implemented in a general fashion in the Arcmancer library (paper in preparation), of which large parts were implemented as a part of this work. The implementation details of Arcmancer are described and its features are compared to those available in other similar codes. Tests of the accuracy of the numerical methods as well as example applications are also presented, including a novel computation of a gravitational lensing event in a binary black hole system. The implementation is found to be correct and easily applicable to a variety of problems.
  • Siddiqi, Md. Jamshed Haider (2013)
    With the increasing expectations of mobile device users, GSMA has initiated Rich Communication Suite, a collaborative effort with leading mobile operators to enhance the deployment of IP Multimedia Subsystem services and bring it to the mass market. RCS provides a inter-operable and convergent communication suite to explore and enrich IMS multimedia services. This thesis provides an extensive overview of IMS and RCS architectures, messaging and transport protocols and usage of Session Initiation Protocol as rendezvous signaling. It describes how RCS uses IMS networks and enriches the IMS services and communications. Although all releases of RCS included file transfer as one of its communication services, those did not address issues associated with file transfer to multiple end users. This thesis describes elaborately how one-to-one file transfer can be done, how it can be expanded to multiple users and pros and cons of different mechanisms. It also shows the usage of RCS to enrich file transfer mechanisms. The tests in the scope of this thesis were executed using devices with various network and CPU capabilities. Finally, potential future works have been discussed. In the examples, all real world identities (domain name, URIs, server name etc.) have been replaced by mock identities.
  • Tuulinen, Anni (2014)
    Useilla organisaatioilla on tarve yhdistää omia tietokantoja ulkopuolisten tietovarastoiden tietoihin. Yhteistoiminta voidaan toteuttaa siten, että ohjelmoijat selvittävät kutsurajapinnat ja räätälöivät ohjelmansa niiden mukaisiksi. Tämä lähestymistapa on kuitenkin hyvin teknologiapainotteinen. Jos rajapinnat muuttuvat, tulee myös ohjelmakoodia muuttaa. Tarvitaan standardeja ja niihin sitoutumista, jotta kitka eri toimijoiden välillä saadaan minimoitua. Erityisesti avoimissa ympäristöissä standardeihin sitoutuminen korostuu. RDF on standardoitu tietomalli, joka voi toimia linkkinä heterogeenisten tietovarastojen välillä. RDF-muotoisen datan määrä onkin kasvanut viime vuosina voimakkaasti, mikä korostaa tehokkaiden ja skaalautuvien talletusratkaisujen tärkeyttä. Tässä tutkielmassa lähestytään RDF-tietomallia linkitetyn datan näkökulmasta. Linkitetty data on alkanut herättää kiinnostusta eri toimijoiden keskuudessa, ja useat organisaatiot ovat jo julkaisseet dataa linkitetyn datan periaatteiden mukaisesti. Linkitettyä dataa syntyy, kun RDF-muotoista dataa linkitetään muualla sijaitseviin resursseihin. Tutkielmassa esitetään tapaustutkimus havainnollistavana kuvauksena siitä, miten RDF-muotoista dataa voi syntyä. RDF-tietomallin mukaista dataa voidaan muodostaa rakentamalla RDF-kerros olemassa olevien tietokantojen päälle tai käyttämällä RDF-tietokantaa tietovarastona. Jos RDF-muotoiselle datalle luodaan oma tietovarasto, on tärkeää ymmärtää eri talletusratkaisujen eroja. Tämä tutkielma antaa yleiskuvan olemassa olevista RDF-muotoisen datan tietokantaratkaisuista. On kuitenkin huomattava, että tutkielmassa esitettyjen ratkaisujen joukko ei ole tyhjentävä. Keskusmuistipohjaisista, relaatiotietokantapohjaisista ja natiiveista RDF-tietokannoista on kuvattu valitut järjestelmät, jotta yleiskuva jokaisesta ryhmästä voidaan muodostaa. RDF-tietokannan optimaaliseen arkkitehtuuriratkaisuun vaikuttavia asioita on useita, ja niihin kuuluvat talletettavan datan muoto ja määrä, tietokantaan kohdistuvat kyselyt ja kyselyjen vasteaikoihin liittyvät vaatimukset.
  • Sarkkinen, Topi (2016)
    Klassinen web muodostuu linkitetyistä dokumenteista. Sen rinnalle on muodostunut linkitetyistä tietojoukoista koostuva semanttinen web, jonka tarkoituksena on tehdä verkon sisällöstä koneellisesti ymmärrettävää semanttisen metatiedon avulla. Verkon yhteenlinkittyneitä tietojoukkoja kutsutaan myös linkitetyksi dataksi. RDF (Resource Description Framework) muodostaa pohjan semanttiselle webille ja linkitetylle datalle. RDF on formaattiriippumaton tietomalli semanttisen metatiedon liittämiseksi web-resursseihin. Sen tietomallissa resurssien ominaisuuksia ja yhteyksiä mallinnetaan subjekti-predikaatti-objekti -kolmikoilla. Voimakkaamman päättelyn ja sovellusten yhteentoimivuuden mahdollistamiseksi RDF-dataa voi formaalisti kuvailla ja luokitella ontologioiden avulla. OWL (Web Ontology Language) on hallitseva kieliperhe web-ontologioiden määrittelyyn. Lisäksi RDF-muotoiseen tietoon voi tehdä kyselyjä SPARQL-kyselykielellä (SPARQL Protocol and RDF Query Language). Tutkielmassa perehdytään RDF-muotoisen tiedon hallintaan ja siihen liittyviin teknologioihin. Erityisesti selvitetään hajallaan olevan RDF-muotoisen tiedon hallintaan liittyviä erityispiirteitä, kuten ontologioiden yhteensovittamista ja useisiin lähteisiin tehtyjä kyselyitä. Suoritamme myös kaksi koekyselyä hajallaan olevien lähteiden kyselyn havainnollistamiseksi.
  • Mäkelä, Nicolas (2020)
    The goal of real-time rendering is to produce synthetic and usually photorealistic images from a virtual scene as part of an interactive application. A scene is a set of light sources and polygonal objects. Photorealism requires a realistic simulation of light, but it contains a recursive problem where light rays can bounce between objects countless of times. The objects can contain hundreds of thoudands of polygons, so they cannot be processed recursively in real-time. The subject of this thesis is a voxel-based lighting method, where the polygonal scene is processed into a voxel grid. When calculating the indirect bounces of light, we can process a small amount of voxels instead of the vast amount of polygons. The method was introduced in 2011, but it didn't gain much popularity due to its performance requirements. In this thesis, we studied the performance and image quality of the voxel-based lighting algoritm with a modern, low-cost graphics card. The study was conducted through design research. The artefact is a renderer that produces images with the voxel-based algorithm. The results show that the algorithm is capable of a high frame rate of 60 images per second in a full-hd resolution of 1920x720 pixels. However, the algorithm consumes most of the time spent forming the image, which doesn't leave much time to simulate a game world for example. In addition, the voxelization of the scene is a slow operation, which would require some application-specific optimizations to be performed every frame in order to support dynamically moving objects. The image quality improves greatly when compared to a scene that doesn't calculate indirect light bounces, but there is a problem of light bleeding through solid objects.
  • Salonen, Antti (2020)
    Roskankeruulla tarkoitetaan automaattista muistinhallinnan mekanismia, jossa roskankeräin vapauttaa sovelluksen varaamat muistialueet, joihin sovellus ei enää viittaa. Keskeisiä roskankeruun perustekniikoita ovat muistiviitteiden laskenta ja jäljittävät keruutekniikat, kuten mark-sweep-keruu ja kopioiva keruu. Reaaliaikaisissa ja interaktiivisissa sovelluksissa roskankeruusta koituvat suoritusviiveet eivät saa olla liian pitkiä. Tällaisissa sovelluksissa keruuta ei voida toteuttaa yhtenä atomisena operaationa, jonka ajaksi ohjelman suoritus keskeytyy. Sen sijaan roskankeruu voidaan kohdistaa vain osaan ohjelman muistista, tai roskankeruu toteutetaan etenemään samanaikaisesti ohjelman suorituksen kanssa. Varsinaiset reaaliaikaiset keruutekniikat vuorottavat roskankeräimen suorituksen siten, että keruusta aiheutuvat viiveet ovat tarkkaan ennakoituja. Tutkielmassa vertailtiin Java-kielen roskankeräimiä erilaisilla työkuormilla ja erikokoisilla muistialueilla. Mittauksissa tarkasteltiin mittausajojen kestoa, roskankeruutaukojen kestoa sekä taukojen jakautumista ohjelman suorituksen ajalle. Mittauksissa löydettiin merkittäviä eroja vertailtujen keräimien välillä. Java-kielen uusi G1-keräin suorittaa koko muistiin kohdistuvan merkintävaiheen rinnakkaisena, ja kopiointivaihe kohdistetaan kerrallaan vain pieneen osaan ohjelman muistista. G1-keräin oli suoritetuissa mittauksissa vain hieman hitaampi kuin vanha Parallel-keräin, mutta G1-keräimen keruutauot olivat huomattavasti lyhyempiä. Kun G1-keräimen keruutauoille asetettiin tavoitekesto, viiveet olivat pisimmillään vain muutamia kymmeniä millisekunteja. Vertailussa mukana olleella Shenandoah- keräimellä, joka on suunniteltu takaamaan erityisen lyhyitä suoritusviiveitä, ohjelman suoritukselle aiheutuneet viiveet olivat vain muutamia millisekunteja.
  • Heino, Mikko (2017)
    Tämä pro gradu -tutkielma käsittelee reaalilukujen konstruointia lähtien liikkeelle suppenevista rationaalilukujonoista. Reaaliluvut voidaan konstruoida useilla eri tavoilla. Tässä tutkielmassa esiteltävän tavan on ensimmäisenä esittänyt Georg Cantor 1800-luvun jälkipuoliskolla. Tutkielman aluksi käydään läpi joukko peruskäsitteitä, joita tarvitaan myöhemmin itse aiheen tarkastelussa. Aiheen käsittely aloitetaan kokonaislukujen joukosta, josta lähtien konstruoidaan rationaaliluvut. Kun näin on pohjustettu rationaalilukujen joukko, siirrytään reaalilukujen konstruointiin rationaalilukujen avulla. Reaalilukujen konstruointiprosessissa lähtökohtana ovat suppenevat rationaalilukujonot. Lukujonon suppeneminen tarkoittaa, että lukujonolla on raja-arvo. Havaitaan, että kaikille suppeneville rationaalilukujonoille ei kuitenkaan löydy raja-arvoa rationaalilukujen joukosta. Toisin sanoen raja-arvo on olemassa, mutta se ei ole rationaalinen. Lisäksi havaitaan, että useat eri rationaalilukujonot suppenevat kohti kutakin samaa raja-arvoa. Ekvivalenssirelaation avulla jonot voidaan jakaa luokkiin. Samaan luokkaan kuuluvat jonot, joilla on sama raja-arvo. Kun vielä määritellään näille suppenevien rationaalilukujonojen ekvivalenssiluokille yhteen- ja kertolaskutoimitus, on konstruointiprosessi miltei valmis. Konstruointiprosessin lopuksi määritellään edellä saadut ekvivalenssiluokat reaaliluvuiksi. Tutkielman lopussa tutkitaan, toteuttavatko edellisen luvun konstruktit reaalilukuaksioomat, ja ovatko ne siten reaalilukuja. Käymällä aksioomat läpi yksi kerrallaan päädytään tulokseen, että konstruktit todella ovat reaalilukuja. Viimeiseksi todetaan vielä, että rationaalilukujen ja rationaalisten reaalilukujen välille voidaan asettaa bijektiivinen kuvaus, joka säilyttää laskutoimitukset ja järjestyksen. Näin ollen rationaalilukujen joukko voidaan käsittää reaalilukujen osajoukoksi ja kääntäen reaalilukujen joukko rationaalilukujoukon laajennukseksi.
  • Kaupinmäki, Santeri (2018)
    The fundamental building blocks of quantum computers, called qubits, can be physically realized through any quantum system that is restricted to two possible states. The power of qubits arises from their ability to be in a superposition of these two states, allowing for the development of quantum algorithms that are impossible for classical computers. However, interactions with the surrounding environment destroy the superposition in a process called decoherence, which makes it important to find ways to model these interactions and mitigate them. In this thesis we derive a non-Markovian master equation for the spin-boson model, with a time-dependent two-level system, using the reaction coordinate representation. We show numerically that in the superconducting qubit regime this master equation maintains the positivity of the density operator for relevant parameter ranges, and is able to model non-Markovian effects between the system and the environment. We also compare the reaction coordinate master equation to a Markovian master equation with parameters taken from real superconducting qubits. We demonstrate that the Markovian master equation fails to capture the system–bath correlations for short times, and in many cases overestimates relaxation and coherence times. Finally, we test how a time-dependent bias affects the evolution of the two-level system. The bias is assumed to be constant with an additive term arising from an externally applied time-dependent plane wave control field. We show that an amplitude, angular frequency, and phase shift for the plane wave can be chosen such that the control field improves the coherence time of the two-level system.
  • Virtanen, Tomi (2016)
    Nykyaikaiset sovellukset ovat yhä useammin verkkosovelluksia. Verkkosovellukset eivät kuitenkaan toimi perinteisten sovellusten tapaan yhdellä päätelaitteella vaan ne muodostuvat sovelluksia käyttävistä asiakkaista ja asiakkaita palvelevista palvelimista. Verkkosovellusten toimintaympäristö on sellainen, jossa sovellusten toiminta on hajautettu verkon yli. Tällöin tiedon synkronointi asiakkaiden ja palvelinten välillä muodostuu keskeiseksi. Muutokset datassa kulkevat tapahtumina, joiden hallinta on tärkeää sovelluksen toiminnan kannalta. Tapahtumien hallinnan logiikan toteuttaminen virheettömästi osoittautuu usein vaikeaksi. Tutkielmassa käsitellään reaktiivista ohjelmointia verkkosovellusten palvelinpuolella. Reaktiivisen ohjelmoinnin avulla pyritään ratkaisemaan tapahtumien hallinnan ongelmat. Tapahtumien hallinta kärsii usein monimutkaisista riippuvuuksista, vaikeasti ymmärrettävyydestä ja huonosta testattavuudesta. Reaktiivisen ohjelmoinnin avulla pyritään selkeyttämään sovellusten rakennetta. Tutkielmaa varten toteutettiin yksinkertainen verkkosovellus, jossa käyttäjät voivat keskustella sovelluksen välityksellä reaaliaikaisesti keskenään. Käyttäjät voivat lähettää toisille käyttäjille sekä yksityisviestejä että kirjoittaa kaikkien käyttäjien nähtäväksi tarkoitettuja viestejä. Verkkosovelluksen palvelinpuoli toteutettiin kahden reaktiivisen kirjaston avulla, sekä vertailun vuoksi ei-reaktiivisesti. Reaktiivisten versioiden toteutukseen käytettiin RxJs- ja Bacon.js-kirjastoja. Reaktiivisen ohjelmoinnin vaikutusta palvelinohjelmointiin tutkittiin staattisella lähdekoodin analyysillä. Tulosten perusteella reaktiivinen ohjelmointi lisää hieman lähdekoodin kokoa, mutta samalla vähentää sen kompleksisuutta.
  • Chydenius, Arto (2014)
    Reaktiivisen ohjelmoinnin on esitetty yksinkertaistavan sen avulla toteutettavia sovelluksia. Ohjelmointiparadigman on myös esitetty soveltuvan erityisen hyvin web-sovellusten selainpuolen ohjelmointiin. Tässä pro gradussa tutkitaan, mitkä ovat reaktiivisen ohjelmoinnin vaikutukset lähdekoodin kokoon ja monimutkaisuuteen. Tutkimusta varten on suunniteltu web-sovellus, josta on toteutettu kolme eri versiota: kaksi reaktiivista ja yksi ei-reaktiivinen versio. Versioiden lähdekoodia on vertailtu staattisen analyysin menetelmin sekä tutkimalla, miten jonkin toiminnallisuuden toteuttaminen tapahtuu jokaisen toteutusversion kohdalla.
  • Hiilesmaa, Ilana (2020)
    The class of RS Canum Venaticorum (RS CVn) variables are rapidly rotating, close detached Chromospherically Active Binary Stars (CABS). Their spectra show strong Ca II H and K emission lines, which indicate the presence of solar type chromospheric activity. Observed amplitudes of brightness variations in RS CVn stars are caused by large starspots. Their orbital periods are typically few days. EI Eridani (EI Eri) is an active, rapidly rotating (v sin i = 51 ± 0.5 km/s) binary star that belongs to the class of RS CVn variables. The primary component is a subgiant star with spectral type G5 IV. Its rotation and orbital motion are synchronised, i.e. P_rot = P_phot ≈ P_orb. We analyse 30 years of standard Johnson V differential photometry of EI Eri. The data were obtained with the Tennesee State University’s T3 0.4-meter Automatic Photometric Telescope (APT). We analyse the data with a new two-dimensional period finding method formulated by Jetsu (2019). This new method allows us to detect the real light curves of long-lived starspots of EI Eri. We also solve the parameters of these real light curves: periods, amplitudes and minimum epochs. Our analysis shows that the parameters of these real light curves are connected to long-lived starspots. There are also spatial correlations between these real light curve parameters. We detected two different period level starspot groups, P_1 ≈ 1.915920 ± 0.000079 days and P_2 ≈ 1.9472324 ± 0.0000040 days, rotating on the surface of EI Eri. The faster rotating starspots P_1 are non-stationary and the slower rotating starspots P_2 are stationary in the orbital reference of frame. The slower rotating starspots are at the longitudes coinciding with the line connecting the centres of the members of EI Eri. The slower rotating starspots have larger amplitudes than the faster rotating starspots. Hence, the slower rotating starspots are dominating the observed light curves. Our results show that the hypothesis, where the observed light curve is the sum of the real light curves (Jetsu, 2019), is valid for EI Eri. We can also show that the starspots of EI Eri are dark. The traditional one-dimensional period finding methods have given spurious results, like the rapid rotation period changes of starspots or abrupt longitudinal 180 degrees shifts of activity. Because of the short lap cycle period P_lap = 119.14 ± 0.30 days between the slower and the faster rotating starspots of EI Eri, the light curves have previously been misinterpreted.
  • Auno, Sami (2018)
    Chemical Exchange Saturation Transfer (CEST) is a novel Magnetic Resonance Imaging (MRI) technique that utilises exchange reactions between metabolites and tissue water to map metabolite concentration or tissue pH noninvasively. Similarly to Magnetic Resonance Spectroscopy (MRS), CEST is able to detect many endogenous metabolites, but unlike MRS, CEST is based on imaging and thus enjoys the speed of modern MR imaging. On the other hand, CEST also suffers from the same difficulties as MRI and MRS. One of the most common source of image artifacts in MRI is subject motion during imaging. Many different motion correction methods have been devised. Recently, a novel real-time motion correction system was developed for MRS. This method is based on volumetric navigators (vNav) that are performed multiple times interleaved with the parent measurement. Navigator image comparison, affine matrix calculation, and acquisition gradient correction to correct the field of view to match subject head motion are done online and in real-time. The purpose of this thesis is to implement this real-time motion correction method to CEST-MRI and study its efficacy and correction potential in phantoms and in healthy volunteers on 7T MR scanner. Additionally, it is hypothesised that the vNav images may be used to correct for motion related receiver sensitivity (B1-) inhomogeneities. Glutamate was chosen as the metabolite of interest due to it being the most abundant neurotransmitter in the human brain and due to its involvement in both normal cognitive function as well as many brain pathologies. Since glutamate has an amine group, it undergoes chemical exchange with water and is thus a usable metabolite for CEST imaging. A glutamate phantom was constructed to show the glutamate concentration sensitivity of CEST and to test and optimise the CEST sequence. Seven healthy volunteers were imaged over a period of two months. All but one volunteer were imaged more than once (2-4 times). Subjects were measured without voluntary head motion and with controlled left-right and up-down head movements. All measurements were performed with and without motion correction to test the motion and B1- -correction methods. Additionally, three volunteers were measured with a dynamic CEST experiment to assess the reproducibility of CEST. The real-time motion correction method was found to be able to correct for small, involuntary head movements. 18 % of the CEST maps measured without motion correction were found to have motion artifacts whereas the equivalent number for maps with motion correction was 0 % (4/22 maps versus 0/18 maps). Larger (>0.7◦ or >0.7 mm in one coregistration step), voluntary head movements could not be corrected adequately. The vNav images could be used to correct for B1- -inhomogeneities. This was found to improve CEST spectra quality and to remove lateral inhomogeneities from the CEST maps. The reproducibility of the CEST-MRI could not be established, however dynamic CEST measurements were found to be stable with only small contrast fluctuation of 4 % between consecutive maps due to noise.
  • Hyytiälä, Otto (2021)
    Remote sensing satellites produce massive amounts of data of the earth every day. This earth observation data can be used to solve real world problems in many different fields. Finnish space data company Terramonitor has been using satellite data to produce new information for its customers. The Process for producing valuable information includes finding raw data, analysing it and visualizing it according to the client’s needs. This process contains a significant amount of manual work that is done at local workstations. Because satellite data can quickly become very big, it is not efficient to use unscalable processes that require lot of waiting time. This thesis is trying to solve the problem by introducing an architecture for cloud based real-time processing platform that allows satellite image analysis to be done in cloud environment. The architectural model is built using microservice patterns to ensure that the solution is scalable to match the changing demand.
  • Kääriäinen, Kristiina (2016)
    In 2009, mining company Anglo American found a significant Ni-Cu-PGE deposit in Sodankylä, Finnish Lapland. The deposit is located underneath Viiankiaapa mire and has later been named Sakatti. During the 1970s and 1980s, the Geological Survey of Finland carried out a targeting till geochemistry program that covered most of Finnish Lapland. The ore potential of Viiankiaapa was not recognized in the original research report from the area. The targeting till geochemistry dataset is an example of the vast amount of existing geological data that is publicly available but has not been widely used. The targeting till geochemistry results from Viiankiaapa area were reanalysed using modern methods to find out whether they contain any indications of the Sakatti deposit. Principal component analysis, k-means clustering and element ratios formed an effective combination to recognize the potentially mineralized samples. Self-organizing maps would have benefited from more detailed data. All methods were used first for the targeting till geochemistry data and then for combined datasets that included information about the Sakatti discovery. Clear indications of the Sakatti deposit were found in till samples adjacent to the known ore outcrops, where the samples had high Ni concentration and their element ratios were similar to the ore. The most significant limitation of the targeting till geochemistry data is the lack of stratigraphic information. The problem could be partly overcome by using recent stratigraphical interpretations from a different study. Even considering the weaknesses of the targeting till geochemistry dataset, results from Viiankiaapa show that it contains valuable exploration potential. The dataset could be used in ore prospecting surveys elsewhere to point out the most promising targets.
  • Lehtonen, Tuomo (2019)
    Formal argumentation is a vibrant research area within artificial intelligence, in particular in knowledge representation and reasoning. Computational models of argumentation are divided into abstract and structured formalisms. Since its introduction in 1995, abstract argumentation, where the structure of arguments is abstracted away, has been much studied and applied. Structured argumentation formalisms, on the other hand, contain the explicit derivation of arguments. This is motivated by the importance of the construction of arguments in the application of argumentation formalisms, but also makes structured formalisms conceptually and often computationally more complex than abstract argumentation. The focus of this work is on assumption-based argumentation (ABA), a major structured formalism. Specifically we address the relative lack of efficient computational tools for reasoning in ABA compared to abstract argumentation. The computational efficiency of ABA reasoning systems has been markedly lower than the systems for abstract argumentation. In this thesis we introduce a declarative approach to reasoning in ABA via answer set programming (ASP), drawing inspiration from existing tools for abstract argumentation. In addition, we consider ABA+, a generalization of ABA that incorporates preferences into the formalism. The complexity of reasoning in ABA+ is higher than in ABA for most problems. We are able to extend our declarative approach to some ABA+ reasoning problems. We show empirically that our approach vastly outperforms previous reasoning systems for ABA and ABA+.
  • Avela, Henri (2019)
    Lipidomics is a quickly growing trend in metabolomics research: not only seen as passive cell membrane building blocks, lipids contribute actively to cell signaling and identification, thus seen as potential biomarkers (e.g. for early stage cancer diagnostics). The literature part includes a review of 63 articles on UHPLC/MS-methods in the time frame of 2017-05/2019. The following literature is focused especially on glycerophospholipids (GPs). In addition, an overview to basic glycerolipids (GLs) and sphingolipids (SPs) is established, which evidently affects the emphasis and narration of lipid class representations in this review. Chromatographic methods in lipidomics are used to achieve either very selective or all-encompassing analyses for lipid classes. Since HPLC/MS is an insufficient method for fully encompassing low-abundance lipids, UHPLC/MS was mostly used for metabolic profiling where its large analyte range due to high sensitivity, separation efficiency and resolution excels in performance compared to other methods. Imaging techniques have further diverted towards DIMS and other novel non-chromatographic methods, e.g. Raman techniques with single cell resolution. The field of mass-spectral lipidomics is divided between studies using isotope-labeled standards or fully standardless algorithm-based analyses, furthermore, machine learning and statistical analysis has increased. The experimental part focused on LC-IMS-MS and plasma-based in-house database method development for targeted analysis of ascites. Method development included optimization of the chromatography, adduct species selection and data-independent/-dependent fragmentation. Totally, 130 potential species from the LIPID MAPS database were used for the identification at the minimum score of 79% for identification in the Qualitative Workflows with retention times (RTs) and Mass Profiler-program with collision cross-sections (CCSs). Plasma sample analyses resulted in the documentation of 70 RTs and 36 CCS values. Two lipid extraction methods (Folch and BUME) with pre-sampling surrogates and post-sampling internal standards were compared with each other. The process resulted in confirming the BUME method in lipidomics to be superior in ecology-, workload-, health- and extraction-related properties. The lipidome of ascites has rarely been studied due to its availability only in diseased patients. Also, limiting factors for these studies are the logistics to realise such a representative analysis.
  • Rönkkö, Tuukka (2016)
    The literature part of this thesis consists of a review of recently introduced forms of solid phase microextraction (SPME): thin film microextraction (TFME), in-tube solid phase microextraction(IT-SPME) and the closely related techniques of capillary in tube adsorption trap/solid phase dynamic extraction (INCAT/SPDE). The experimental part covers the study of reagents for on-fiber derivatization of low molecular weight aliphatic amines in atmospheric concentrations. In TFME a thin film of sorbent is used for extraction instead of a rod-like sorbent as in fiber-SPME. This increases analyte uptake and capacity compared to fiber-SPME, making TFME suitable for non-equilibrium extraction. TFME is used with both gas and liquid chromatography, although the large size of the film presents problems in desorption, especially in gas chromatography. Common applications of TFME are environmental monitoring and in vivo extraction. IT-SPME is a dynamic type of SPME most often coupled with liquid chromatography, in which a liquid sample is pumped through an extraction capillary. It is relatively easily automated with most autosamplers. In the most common form a sorbent is coated on the inside walls of the capillary. Recently, packed types of IT-SPME have been introduced, which can achieve very high extraction efficiencies. In addition, sorbent materials which change their properties according to environmental factors such as temperature, potential and magnetic field seem promising for future development. INCAT/SPDE utilizes internally coated metal needles for extraction. Although similar to IT-SPME, it is used for sampling gaseous compounds by pumping them through the needle. Desorption and analysis is usually performed with a gas chromatograph. INCAT/SPDE has some advantages over fiber-SPME, such as larger sorbent volume and robustness. However, it is currently limited to only polydimethylsiloxane-based sorbents, which limits possible applications. In the experimental part, the possibilities of using allyl isothiocyanate, pentafluorobenzaldehyde(PFBAY) and pentafluorobenzyl chloroformate (PFBCF) in simultaneous extraction and on-fiber derivatization of low molecular weight aliphatic amines were explored. Separation and analysis was performed with gas chromatography-mass spectrometry. Allyl isothiocyanate did not derivatize the analytes. On-fiber derivatization with PFBAY was successful for both ethylamine and methylamine, but the concentrations required to observe signal from the derivatives were too high to use PFBAY for air samples. PFBCF was identified as the most promising reagent, working for both dimethylamine and ethylamine. It was also possible to construct a calibration function for gaseous dimethylamine.
  • Wong, Davin (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2007)
    We investigate methods for recommending multimedia items suitable for an online multimedia sharing community and introduce a novel algorithm called UserRank for ranking multimedia items based on link analysis. We also take the initiative of applying EigenRumor from the domain of blogosphere to multimedia. Furthermore, we present a strategy for making personalized recommendation that combines UserRank with collaborative filtering. We evaluate our method with an informal user study and show that results obtained are promising.