Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by Title

Sort by: Order: Results:

  • Långvik, Miklos (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2007)
    This masters thesis explores some of the most recent developments in noncommutative quantum field theory. This old theme, first suggested by Heisenberg in the late 1940s, has had a renaissance during the last decade due to the firmly held belief that space-time becomes noncommutative at small distances and also due to the discovery that string theory in a background field gives rise to noncommutative field theory as an effective low energy limit. This has led to interesting attempts to create a noncommutative standard model, a noncommutative minimal supersymmetric standard model, noncommutative gravity theories etc. This thesis reviews themes and problems like those of UV/IR mixing, charge quantization, how to deal with the non-commutative symmetries, how to solve the Seiberg-Witten map, its connection to fluid mechanics and the problem of constructing general coordinate transformations to obtain a theory of noncommutative gravity. An emphasis has been put on presenting both the group theoretical results and the string theoretical ones, so that a comparison of the two can be made.
  • Maconi, Göran Konstantin (2017)
    Light scattering measurements are important for characterizing small particles. The scattering data can replace simplified theoretical models in simulations, e.g. Mie scattering, providing significantly more realistic simulation results. It can also be used as a standard, to which more advanced scattering models can be compared. We present a new instrument for measuring light scattered by micrometer- to millimeter-sized particulate samples, which are levitated ultrasonically. The instrument was built within the scope of this project. While other setups exist that can measure light scattering, our instrument is unique in its capability to measure individual particles which are held in place in mid-air. The system is measures light of multiple wavelengths, scattered in 360 degrees and taking light polarization into account. Samples are held in place by a Langevin-type ultrasonic levitator, which eliminates any stray scattering from a sample holder, while simultaneously making the measurement non-destructive and non-contacting. The non-destructive measurement allows for research on valuable and unique samples, such as rare meteorites and space dust. In this work, we detail the design principles of our instrument, as well as its calibration. We estimate its performance by measuring scattering from clear glass spheres and comparing the results to Mie scattering simulations. We also demonstrate the instrument's capability to handle real samples by measuring the light scattering properties of a rock sample taken from the Chelyabinsk meteorite. The measurements show that our instrument provides accurate light scattering data from a variety of samples. This makes it a valuable tool which can be used to validate theoretical models and provide unique light scattering data from samples that would otherwise be hard to measure.
  • Yu, Hanlin (2023)
    Bayesian inference tells us how we can incorporate information from the data into the parameters. In practice, this can be carried out using Markov Chain Monte Carlo (MCMC) methods which draw approximate samples from the posterior distribution, but using them for complex models like neural networks remains challenging. The most commonly used methods in these cases are Stochastic Gradient Markov Chain Monte Carlo (SGMCMC) methods based on mini-batches. This thesis presents improvements for this family of algorithms. We focus on the specific algorithm of Stochastic Gradient Riemannian Langevin Dynamics (SGRLD). The core idea of it is to perform sampling on a suitably defined Riemannian manifold characterized by a Riemannain metric, which allows utilizing information of the curvature of the target distribution for improved efficiency. While SGRLD has nice theoretical properties, for arbitrary Riemannian geometries, the algorithm is slow due to the need of repeatedly calculating the inverse and inverse square root of the metric, which is high-dimensional for large neural networks. For the task of efficiently sampling from an arbitrary neural network with a large number of parameters, the current algorithms overcome the issue by using diagonal metrics, which enable fast computations, but unfortunately lose some advantages of the Riemannian formulation. This thesis proposes the first computationally efficient algorithms with non-diagonal metrics applicable for training an arbitrary large neural network for this task. We propose two alternative metrics, and name the resulting algorithms MongeSGLD and ShampooSGLD, respectively. We demonstrate that with both of them we can achieve improvements upon the existing ones in terms of convergence, especially when using neural networks with priors that result in good performances. We also propose to use the average curvature of the obtained samples as an evaluation measure.
  • Halonen, Julia (2017)
    Suomesta halutaan tiedekasvatuksen kärkimaa vuonna 2020. Tiedekasvatuksella tarkoitetaan tiedeosaamisen eli tiedekoulutuksen avulla hankitun tiedollisen ja taidollisen perusosaamisen vahvistamista. (OKM, 2014) Non-formaalilla tiedekasvatuksella tarkoitetaan koulun ulkopuolella tapahtuvaa tavoitteellista oppimista, jota eivät kuitenkaan ohjaa viralliset oppimistavoitteet. Non-formaalien oppimisympäristöjen (esim. tiedeleirien) hyödyntämisen on aiemmissa tutkimuksissa todettu lisäävän motivaatiota ja kiinnostusta luonnontieteitä kohtaan. Tässä tutkimuksessa on analysoitu tiedeleireillä tapahtuvan non-formaalin tiedekasvatuksen relevanssia sekä lasten että perheiden näkökulmista, jota ei ole tutkittu aikaisemmin. Relevanttiuden analysoinnissa on käytetty Stuckeyn, Hofsteinin, Mamlok-Naamanin & Eilksin vuonna 2013 kehittämää relevanssiteoriaa, jossa relevanssi esitetään kolmessa tasossa eri näkökulmista. Relevanssiteorian mukaan opetuksen tulisi olla relevanttia sekä henkilökohtaisella, yhteiskunnallisella että ammatillisella tasolla. Opetuksen tulisi myös olla relevanttia oppijalle niin nykyhetkessä kuin tulevaisuudessa sekä sisäisesti että ulkoisesti. Tämän tutkimuksen päämääränä oli selvittää, miten relevanssin eri tasot (Stuckey et al., 2013) lasten ja perheiden mielestä ilmenevät tiedeleireillä, ja kohtaavatko lasten ja perheiden näkemykset niistä. Tutkimuskohteena olivat Helsingin yliopiston LUMA-keskuksen vuosina 2015 ja 2016 järjestämille 46 tiedeleireille osallistuneet yli 900 alakouluikäistä lasta ja osa heidän huoltajistaan (N=124). Tutkimuksessa tarkasteltiin lasten aiemman kiinnostuksen sekä sukupuolen vaikutusta relevanssiin kemian tiedeleirien osalta, joille osallistui yhteensä 109 lasta. Tutkimusmenetelminä käytettiin sekä kyselylomaketutkimusta että teemahaastattelua. Kyselylomakkeen avoimet kysymykset analysoitiin teoriaohjaavan sisällönanalyysin avulla. Strukturoituja kysymyksiä käsiteltiin sekä laadullisena että määrällisenä aineistona. Korrelaatiota aiemman kiinnostuksen ja tiedeleirien relevanssin välillä havainnollistettiin Spearmanin korrelaatiokertoimen avulla. Tutkimuksen luotettavuutta tarkasteltiin tutkimuksen ulkoisen ja sisäisen validiteetin avulla. Kyselytutkimuksen tulokset osoittavat, että tiedeleireillä tapahtunut non-formaali tiedekasvatus on sekä lasten että perheiden näkökulmasta relevanttia lähinnä henkilökohtaisen relevanssin tasolla korostaen nykyistä ja sisäistä relevanssia. Leirien teemoihin liittyvät tehtävät, esimerkiksi kemian leireillä kokeellista työskentelyä laboratoriossa sekä tiedeleirillä saadut kaverit olivat lapsille kaikista relevanteinta. Kemian tiedeleirit olivat henkilökohtaisesti relevanteimpia niille lapsille, joilla aikaisempi kiinnostus kemiaa kohtaan oli vähäisempää. Pojat ovat tyttöjä varmempia omista kiinnostuksen kohteistaan henkilökohtaisen relevanssin tasolla. Yhteiskunnallisen relevanssin tasolla pojat taas keskittyvät tyttöjä enemmän nykyhetken relevanssiin, kun tytöt huomioivat myös tulevaisuuden. Yhteiskunnallisen ja ammatillisen relevanssin tasot näkyivät vain vähän kyselytutkimuksessa. Teemahaastattelujen perusteella leirejä pidettiin kuitenkin relevanttina kaikilla relevanssiteorian mukaisilla relevanssin tasoilla. Leiriläiset olivat vanhempiaan enemmän sitä mieltä, että he oppivat leirillä yhteiskunnallisen relevanssin mukaisesti toimimaan yhteistyössä muiden kanssa. Samoin leiriläiset myös uskoivat vanhempiaan enemmän ammatillisen relevanssin mukaisesti ehkä oppineensa leirillä jotain sellaista, joka auttaa heitä tulevaisuudessa pääsemään haluamaansa työhön. Non-formaalia tiedekasvatusta tutkitaan, jotta sitä voitaisiin kehittää yhä paremmin oppijoita tukevaksi. Tämän tutkimuksen tuloksia voidaan hyödyntää non-formaalin tiedekasvatuksen, erityisesti tiedeleirien kehittämisessä ja jatkotutkimuksessa.
  • Särkelä, Karoliina (2023)
    Non-growing season carbon fluxes can contribute to a significant amount of the full-year ecosystem carbon balance. Year-round net ecosystem exchange (NEE) data from 17 years was used to analyse the non-growing season carbon dioxide (CO2) fluxes together with environmental and meteorological variables at Siikaneva fen in Southern Finland. Generally, the fen acted as a sink of CO2 with a mean annual carbon balance of -50.9 (± 39.4) g C m-2. On average, the CO2 emissions during non-growing seasons offset 57% of the following growing seasons CO2 uptake. Two years from the 17-year dataset were a consistent net source of CO2, 2018 and 2016. In 2016, a strong respiration release during the winter-spring transition period turned the annual balance of CO2 to positive, resulting in the highest emission of CO2 during the entire study period. The period of anomalous respiration alone offset 38% of the following growing seasons CO2 uptake. Since the biological activity during non-growing season is low, the CO2 fluxes likely composed mainly of heterotrophic respiration, and thus were likely driven by soil temperature. The relative importance of air and soil temperature, vapor pressure deficit, water table depth, and photosynthetically active radiation (PAR) on NEE of CO2 was analyzed with a random forest algorithm. PAR and soil temperature were the most important drivers during non-growing season, growing season and year-round periods. PAR had the highest importance during growing season while during non-growing seasons, PAR and soil temperature had an equal relative importance. A wavelet coherence analysis further revealed that the mean annual cycles of NEE and soil temperature were coherent during the summer months across the diurnal scale. For instance, NEE correlated positively (decreasing the net carbon sink) with soil temperature and lagged the response to temperature by 4-6 hours. There was no coherence between the annual cycles of soil temperature and NEE during winter. The results emerging from this thesis stress the importance of studying what controls the interannual variation in soil temperature and the possible accumulation of CO2 in soil during non-growing season, but also how they contribute to spring-time CO2 releases like the one observed in spring 2016.
  • Haapaniemi, Antti (2023)
    Today’s applications are largely deployed in the cloud and are often implemented using the microservice architecture, which divides a software system into distributed services and provides a solution to multiple issues in monolithic software systems, such as maintainability, scalability, and technology lock. However, industry experts find monitoring microservices a challenge due to the added complexity and distributed nature of microservices. Microservices are typically monitored by intrusive approaches, which incur an added cost of development by requiring instrumentation of the source code or adding monitoring agents. In contrast, the non-intrusive approaches do not. Microservices often communicate using the HTTP protocol via a centralized API Gateway, which could provide a convenient way to monitor microservices without disruption to the microservices. In this thesis, we study non-intrusive approaches to monitor microservices and present our non-intrusive approach to monitor microservices for faults and performance issues by examining anomalies in HTTP requests transferring through a centralized API Gateway. Our approach requires minimal disruption and is easy to implement as it utilizes the API Gateway for monitoring. We implemented our approach in the Amazon Web Services (AWS) cloud environment to an existing software system to find real-world issues and challenges of applying our approach. Alarms were created by using anomaly detection capabilities provided by the AWS CloudWatch service. Our non-intrusive approach can monitor latency, traffic, and errors, but not saturation. Multiple incidents of interest were detected during our evaluation period. We present the challenges and issues we were faced with. In addition, we introduce guidelines and a library to further simplify the deployment of our approach.
  • Nurminen, Teemu (2020)
    Diabetes is a chronic disease characterized by compromised insulin production or decreased ability to utilize insulin. Diabetics can experience abnormal glucose levels such us low blood glucose (hypoglycemia) or high blood glucose (hyperglycemia). Untreated hypoglycemia can be fatal. Prolonged hyperglycemia can damage organs such as heart and eyes. Diabetes is estimated to affect 463 million people in 2019. The number is expected to increase by 25% for 2030, affecting 10.2% of global population. The risk group of developing diabetes is estimated to increase from 374 million to 454 million within the same period. Moreover, diabetes is counting more than 12 % of all adult deaths. Diabetes can be managed with medication, and lifestyle changes (e.g. exercise and nutrition). Frequent blood glucose monitoring is a key tool in the management of diabetes. Unfortunately, as of today, all available methods for glucose monitoring are invasive (e.g. rely on needles or implantable devices). A more convenient method for glucose monitoring, overcoming the use of needles, could contribute to improve the health outcome of millions of diabetics by helping them to better manage the disease and delay or prevent its devastating complications. This thesis reports on the investigation in pilot clinical tests of the accuracy and performance of a noninvasive glucose monitoring prototype based on magnetohydrodynamic (MHD) and enzymatic electrochemical biosensors. The pilot clinical test involved 6 non-diabetic and 45 type II diabetics (male = 23, female = 28, average age = 60.3 ± 10.2 years). The mean absolute relative difference (MARD) of the device was 23.5 %. In the Clarke error grid, 99 % of resulted data points fell in the clinically acceptable A and B zones, in Clarke error grid. Moreover, 95.9 % of data points fell in zones A and B of consensus error grid. The felt discomfort of MHD sampling was significantly less compared to fingerstick sampling. The results indicate that noninvasive sampling of dermal interstitial fluid combined with electrochemical biosensors may enable the development of an accurate, safe, and convenient solution for noninvasive glucose monitoring.
  • Nguyen Gia, Huy (2024)
    This thesis focuses on the preparation and characterisation of a bis(cyclic carbonate) from neopentyl glycol diglycidyl ether. Some non-isocyanate polyurethanes of the prepared bis(cyclic carbonate) are also synthesised. The solvent-free synthetic process of the bis(cyclic carbonate) was optimised, obtaining high conversion with metal-free, commercially available catalysts and CO2 was used as a C1 reactant source, with significantly lower CO2 pressure compared to many literature processes. From the synthesised bis(cyclic carbonate), non-isocyanate polyurethanes are successfully prepared with simple diamines of different chain lengths. 
  • Pyykölä, Sara (2022)
    This thesis regards non-Lambertian surfaces and their challenges, solutions and study in computer vision. The physical theory for understanding the phenomenon is built first, using the Lambertian reflectance model, which defines Lambertian surfaces as ideally diffuse surfaces, whose luminance is isotropic and the luminous intensity obeys Lambert's cosine law. From these two assumptions, non-Lambertian surfaces violate at least the cosine law and are consequently specularly reflecting surfaces, whose perceived brightness is dependent from the viewpoint. Thus non-Lambertian surfaces violate also brightness and colour constancies, which assume that the brightness and colour of same real-world points stays constant across images. These assumptions are used, for example, in tracking and feature matching and thus non-Lambertian surfaces pose complications for object reconstruction and navigation among other tasks in the field of computer vision. After formulating the theoretical foundation of necessary physics and a more general reflectance model called the bi-directional reflectance distribution function, a comprehensive literature review into significant studies regarding non-Lambertian surfaces is conducted. The primary topics of the survey include photometric stereo and navigation systems, while considering other potential fields, such as fusion methods and illumination invariance. The goal of the survey is to formulate a detailed and in-depth answer to what methods can be used to solve the challenges posed by non-Lambertian surfaces, what are these methods' strengths and weaknesses, what are the used datasets and what remains to be answered by further research. After the survey, a dataset is collected and presented, and an outline of another dataset to be published in an upcoming paper is presented. Then a general discussion about the survey and the study is undertaken and conclusions along with proposed future steps are introduced.
  • von Koch, Heikki (2020)
    This master's thesis has two main goals. First, to give a rigorous presentation of the method of characteristics without losing the important intuitive aspects that accompany it. Second, to use the method of characteristics to present the Hamilton-Jacobi equation, solve it in a reasonable manner and then introduce some of its most important properties. These topics will be accompanied by enlightening examples. In the first part we develop the method of characteristics by transforming a first-order nonlinear PDE to a system of first-order ODE:s. We start by defining the notion of complete integrals as a sort of singleton solution to our PDE, and then combining these to a single family; an envelope encompassing the full solution. We then assume that the PDE itself can be written in a moving coordinate frame, and using this concept make an important assumption regarding the nature of the underlying curves at each moment. The full solution is finally achieved by weaving these curves to form the solution surface. To complete the theory, proper care needs to be taken of the boundary to make it compatible with our notion of curves. Lastly, all of the theory will be combined to make sure that the method actually produces well-defined local solutions. With the method of characteristics developed, we have a look at the Hamilton-Jacobi equation. We will give sufficient conditions on when this initial-value problem can be solved with the Hopf-Lax formula. Based on this formula, a notion of weak solution will be given with its uniqueness proof. The Hamilton-Jacobi initial-value problem will be approached with the tools of variational calculus and convex analysis. These tools will be used to intimately link the Hamiltonian and Lagrangian by the means of the Legendre transform. The Hopf-Lax formula will then be constructed with the aim of solving the Hamilton-Jacobi initial-value problem. The formula is shown to have a useful functional identity as well as being Lipschitz continuous. Finally the uniqueness of the solution will be achieved by assuming semiconcavity from the initial function, or uniform convexity from the Hamiltonian. The final chapter gives an insight as to how the developed theory can be further generalized and used. We will refer to some bibliography containing an abundance of further reading on semiconcave functions, optimal control theory and the Hamilton-Jacobi-Bellman equations.
  • Djurabekova, Nargiza (2017)
    Sparse and limited angle tomography are common techniques used in computerized tomography to understand the inner working of live and inanimate objects with a reduced radiation dose. Unfortunately due to the lack of full data, these problems are often severely ill-posed and need powerful regularization strategies to create good reconstructions. One such tool is total variation, which creates good but patchy reconstructions. In this paper we analyze the use of non-local total variation as a way to improve the reconstruction quality. The analysis involves using both, simulated and real world data and comparing the TV reconstructions with the NLTV ones. The results leas us to believe that NLTV is particularly efficient and superior tool in sparse tomography, but further research is required to improve TV's limited-angle reconstructions.
  • Tyrväinen, Sanna (2013)
    The push for cameras integrated into mobile devices has created strict size constraints for the hardware. This results in large compromises in lens quality, causing blur that can be modelled by using the convolution operator. We explore ways of reducing this blur via algorithms, a process that is also known as deconvolution. The deconvolution problem is considered ill-posed. According to Hadamard, an ill-posed problem is one that fails at least one of the following conditions: the solution is unique, the solution exist for any given data and the solution depends with continuity on the data. Traditional approaches to solve the deconvolution problem are Tikhonov and total variation regularization, but these methods have problems with fine structures and patterns in images, because they compare only points next to each other. Nonlocal methods were developed to alleviate these problems. They base on texture synthesis and neighbourhood filters. The main idea is that similar or repeating structures exist in the image. These structures can be used when reconstructing the unclear part of the image. The similarity between points is measured by comparing their environments with a weight function. This thesis presents the theory of total variation regularization, some properties of the total variation functional and the existence of the minimizer. Nonlocal operators and a weight function are then used to define nonlocal total variation regularization. We present an algorithm for solving the deconvolution problem by nonlocal total variation regularization using gradient descent. We compare our implementation to the code by Yifei, Zhang, Osher and Bertozzi (2010). Numerical examples using three different images with different added blur and noise show no significant difference between nonlocal methods, but they show great advance from local to nonlocal methods. Results are compared using the signal to noise ratio (SNR) and an ocular measuring. Tikhonov regularization turns out to be insufficient when measuring SNR.
  • Tiihonen, Iiro (2020)
    Työni aihe on Gaussisten prosessien (Gp) soveltaminen aikasarjojen analysointiin. Erityisesti lähestyn aikasarjojen analysointia verrattain harvinaisen sovellusalan, historiallisten aikasarja-aineistojen analysoinnin näkökulmasta. Bayesilaisuus on tärkeä osa työtä: parametreja itsessään kohdellaan satunnaismuuttujina, mikä vaikuttaa sekä mallinnusongelmien muotoiluun että uusien ennusteiden tekemiseen työssä esitellyillä malleilla. Työni rakentuu paloittain. Ensin esittelen Gp:t yleisellä tasolla, tilastollisen mallinnuksen työkaluna. Gp:eiden keskeinen idea on, että Gp-prosessin äärelliset osajoukot noudattavat multinormaalijakaumaa, ja havaintojen välisiä yhteyksiä mallinnetaan ydinfunktiolla (kernel), joka samaistaa havaintoja niihin liittyvien selittäjien ja parametriensa funktiona. Oikeanlaisen ydinfunktion valinta ja datan suhteen optimoidut parametrit mahdollistavat hyvinkin monimutkaisten ja heikosti ymmärrettyjen ilmiöiden mallintamisen Gp:llä. Esittelen keskeiset tulokset, jotka mahdollistavat sekä GP:n sovittamisen aineistoon että sen käytön ennusteiden tekemiseen ja mallinnetun ilmiön alatrendien erittelyyn. Näiden perusteiden jälkeen siirryn käsittelemään sitä, miten GP-malli formalisoidaan ja sovitetaan, kun lähestymistapa on Bayesilainen. Käsittelen sekä eri sovittamistapojen vahvuuksia ja heikkouksia, että mahdollisuutta liittää Gp osaksi laajempaa tilastollista mallia. Bayesilainen lähestymistapa mahdollistaa mallinnettua ilmiötä koskevan ennakkotiedon syöttämisen osaksi mallin formalismia parametrien priorijakaumien muodossa. Lisäksi se tarjoaa systemaattisen, todennäköisyyksiin perustuvan tavan puhua sekä ennakko-oletuksista että datan jälkeisistä parametreihin ja mallinnetun ilmiön tuleviin arvoihin liittyvistä uskomuksista. Seuraava luku käsittelee aikasarjoihin erityisesti liittyviä Gp-mallintamisen tekniikoita. Erityisesti käsittelen kolmea erilaista mallinnustilannetta: ajassa tapahtuvan Gp:n muutoksen, useammasta eri alaprosessista koostuvan Gp:n ja useamman keskenään korreloivan Gp:n mallintamista. Tämän käsittelyn jälkeen työn teoreettinen osuus on valmis: aikasarjojen konkreettinen analysointi työssä esitellyillä työkaluilla on mahdollista. Viimeinen luku käsittelee historiallisten ilmiöiden mallintamista aiemmissa luvuissa esitellyillä tekniikoilla. Luvun tarkoitus on ensisijaisesti esitellä lyhyesti useampi potentiaalinen sovelluskohde, joita on yhteensä kolme. Ensimmäinen luvussa käsitelty mahdollisuus on usein vain repalaisesti havaintoja sisältävien historiallisten aikasarja-aineistojen täydentäminen GP-malleista saatavilla ennusteilla. Käytännön tulokset korostivat tarvetta vahvoille prioreille, sillä historialliset aikasarjat ovat usein niin harvoja, että mallit ovat valmiita hylkäämän havaintojen merkityksen ennustamisessa. Toinen esimerkki käsittelee historiallisia muutoskohtia, esimerkkitapaus on Englannin sisällissodan aikana äkillisesti räjähtävä painotuotteiden määrä 1640-luvun alussa. Sovitettu malli onnistuu päättelemään sisällissodan alkamisen ajankohdan. Viimeisessä esimerkissä mallinnan painotuotteiden määrää per henkilö varhaismodernissa Englannissa, käyttäen ajan sijaan selittäjinä muita ajassa kehittyviä muuttujia (esim. urbanisaation aste), jotka tulkitaan alaprosesseiksi. Tämänkin esimerkin tekninen toteutus onnistui, mikä kannustaa sekä tilastollisesti että historiallisesti kattavampaan analyysiin. Kokonaisuutena työni sekä esittelee että demonstroi Gp-lähestymistavan mahdollisuuksia aikasarjojen analysoinnissa. Erityisesti viimeinen luku kannustaa jatkokehitykseen historiallisten ilmiöiden mallintamisen uudella sovellusalalla.
  • Ala-Mattinen, Kalle (2018)
    We investigate a dark sector augmentation of the standard model with a keV-scale right-handed sterile neutrino field 𝑁 and a TeV-scale singlet scalar field 𝑆. The ("warm") dark matter candidate of the model is the sterile neutrino, which is produced from decays of singlet scalars. The dark sector is coupled to the standard model via the Higgs portal coupling between the singlet scalar and Higgs 𝐻. The momentum distribution function, which contains the full information about the production process, is obtained for sterile neutrinos by solving a system of Boltzmann equations. For simplicity, we assume the effective number of relativistic degrees of freedom to be constant during the dark matter production. We take into account several constraints from structure formation and cosmology, and find that even this simple model gives rise to a rich phenomenology. In particular, we find that, in addition to offering a realistic dark matter candidate, the sterile neutrino can attain a highly non-thermal momentum distribution in the process. A direct consequence of this is the inability to assess the impact on the structure formation with the usual estimators that require a thermal momentum distribution, such as the free-streaming length. We rely on [72], which uses the linear power spectrum, instead of the free-streaming length, to estimate the impact on structure formation. This method also works for non-thermal momentum spectra. On the side, we discuss the evidence for dark matter, known problems of the ΛCDM, and the basic production mechanisms in the early universe. Also a comprehensive, analytical and numerical, reduction of necessary equations is presented.
  • Yliluoma, Joel (2024)
    In this thesis we study how to implement the one-dimensional fast Fourier transform (FFT) as a computer program in such a way that it works fast on inputs of all sizes. First we walk through the mathematical theory behind the continuous and the discrete Fourier transform (DFT), and study the motivation behind them. We explore both the one-dimensional and the multi-dimensional versions of the DFT. We also study the discrete cosine transform (DCT) and explore its differences to the Fourier transform. After that, we explore various known methods for implementing the fast Fourier transform. We focus especially on the Cooley-Tukey algorithm and its different forms in enough detail, that one can understand both how it works and how it was conceived. We also explore Rader’s and Bluestein’s FFT algorithms. After the theory we implement the DFT and the FFTs using the C++ programming language. We also devise and implement a combined algorithm, which seeks to provide the fastest possible transformation by choosing the optimal combination of algorithms in each case. We use C++20, which is the most recent standard version of C++ at the time of writing. We analyze the speed of the implemented methods, comparing them against each others and also compared to a famous FFT library, FFTW. In addition, we analyze the numeric accuracy of the implementations. Then we analyze the accuracy and applicability of the analysis methods and study the shortcomings and possible approaches for improving the implementations. We also present a simple example application of FFT, where the program attempts to identify the vowel sounds present in a voice sample. The purpose of this thesis is to offer the reader a clear example implementation of all the presented transforms and to thoroughly explore their limitations, weaknesses and strengths. For best value, the reader is expected to understand the basics of calculus and the basics of complex numbers. Especially the sum notation, ∑, and Euler’s formula are vital for understanding the mathematical theory. The computer source code is designed in such way that the reader does not need to know the details of the C++20 standard, or indeed even the C++ language, but experience in C programming will help.
  • Mäkelä, Maria (2014)
    Tutkielman tavoitteena on kartoittaa normaalijakauman tämänhetkistä asemaa lukion matematiikassa. Normaalijakauma kuuluu osaksi lukion matematiikan tilastot ja todennäköisyys –kurssia sekä lyhyen että pitkän matematiikan puolella. Sen asema lukiomatematiikassa on perusteltu, sillä normaalijakauma on jo vuosikymmeniä ollut käytössä hyödyllisenä matemaattisena apuvälineenä erilaisissa käytännön tutkimuksissa ja ongelmissa. Jatkuvat muutokset ja supistukset opetussuunnitelmissa sekä vireillä olevat uudistukset ylioppilaskokeen suhteen tuovat kuitenkin muutoksia myös opetettavaan sisältöön. Tutkielmaa johdattelee eteenpäin hypoteesi normaalijakauman aseman heikkenemisestä lukiomatematiikassa. Tutkimuskysymystä lähestytään tutkielman edetessä useasta eri näkökulmasta pyrkien näin muodostamaan mahdollisimman monipuolinen ja kattava kuva aiheesta. Tutkielmassa käytetty aineisto koostui valmiista materiaaleista. Tietoa normaalijakauman vaiheista kerättiin opetussuunnitelmista eri vuosikymmeniltä sekä viimeisimpien vuosien ylioppilaskokeista. Ylioppilaskokeissa esiintyneitä normaalijakaumatehtäviä analysoitiin myös Dimensio-lehdessä julkaistujen kommenttien ja ratkaisuesimerkkien valossa. Näiden avulla pyrittiin selvittämään opiskelijoiden tasoa ja kiinnostusta normaalijakaumatehtävien suhteen. Lisäksi tutkielma sisältää oppikirja-analyysin kolmesta eri kirjasarjasta lyhyen ja pitkän matematiikan osalta. Tutkielmassa tulkittiin eri aineistoja selkeästi erikseen, mutta niiden väliltä pyrittiin löytämään myös yhtäläisyyksiä ja ristiriitoja. Normaalijakauma on joutunut jonkin verran väistymään uusien ja modernien matematiikan osa-alueiden tieltä. Muutos on tapahtunut pikkuhiljaa vuosien saatossa. Toisaalta normaalijakaumalla on edelleen vankka asema osana tilasto-oppia ja todennäköisyyslaskentaa, mutta siihen liittyvää teoriasisältöä on supistettu. Varsinkin ylioppilaskokeiden tehtävien perusteella voidaan todeta, että normaalijakaumatehtävät ovat selvästi kaavamaisempia ja vähemmän luovaa ajattelua vaativia kuin aiemmin. Vuonna 2012 ylioppilaskokeisiin tullut laskinuudistus on asettanut tehtävien laatijat uusien haasteiden eteen, kun aiemmat haastavatkin tehtävät ovat käyneet viisastuvan laskimen käyttäjälle perustehtäviksi. Tutkielmassa esitellään tehtäviä normaalijakaumasta, joiden avulla olisi mahdollista mitata opiskelijan aitoa matemaattista ymmärrystä pelkän laskimen käsittelytaidon sijaan.
  • Merivuori, Toni (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2009)
    Normalisoitu kompressioetäisyys NCD on mitta kahden dataobjektin välisen keskinäisen etäisyyden laskemiseen. Etäisyysmitta kuvaa sitä, kuinka paljon kahdessa vertailtavassa dataobjektissa on samankaltaisuutta. NCD on normalisoidun informaatioetäisyyden NID:n approksimointi. NID perustuu dataobjektien Kolmogorov-kompleksisuuteen. Dataobjektit kuvataan bittijonoina ja niissä on sitä enemmän samankaltaisuutta, mitä enemmän ne sisältävät keskinäisinformaatiota. NID on universaali siinä mielessä, että se poikkeaa korkeintaan vakiotermin verran optimaalisesta menetelmästä. Vakiotermi ei puolestaan riipu lainkaan vertailtavista dataobjekteista. NCD approksimoi NID:tä reaalimaailman tiivistäjillä, minkä vuoksi se on vain näennäisuniversaali, mutta siitä huolimatta käyttökelpoinen. NCD:n nojalla muodostetaan datasta etäisyysmatriisi, jonka avulla alkiot voidaan ryvästää ja havainnollistaa erityisen kvartettimenetelmän avulla puurakenteeseen. Menetelmää on sovellettu lupaavasti monella alalla. Tutkielma käy läpi menetelmän taustalla olevan teorian ja esittelee sen sovelluskohteita sekä paneutuu erityisesti stemmatologiseen Heinrichi-aineistoon, jota testataan CompLearn-ilmaisohjelmalla, joka tuottaa etäisyysmatriisin sekä muodostaa puurakenteen kvartettimenetelmällä.
  • Lindroos, Olavi (Helsingin yliopistoUniversity of HelsinkiHelsingfors universitet, 2000)
    Schrödingerin kissan paradoksi on puhuttanut paljon kvanttimekaniikan ymmärtämiseen pyrkiviä tutkijoita. Kissan kohtalo on ollut osasyynä mitä mielikuvituksellisempien ratkaisuyritysten keksimiseen ja kvanttimekaniikan tulkintojen syntymiseen. Kissaa itseäänkin on tulkittu paljon ja väärin, joten tutkimus on hyvä aloittaa tutkimuskohteen määrittelyllä – ensin siis selvitän, mikä on Schrödingerin kissa ja miksi se on nostettu pöydälle. Kolmea tunnetuinta kvanttimekaniikan tulkintatyyppiä (kööpenhaminalainen tulkinta, piilomuuttujateoriat ja multiuniversumiteoriat) vastaan voidaan esittää riittävän voimakasta kritiikkiä, minkä takia ratkaisua kissan paradoksiin on järkevää etsiä muualta. Työssäni tutkin ajatusta, jonka mukaan on mahdollista löytää 'tulkinta' kvanttimekaniikalle kvanttimekaniikan sisältä. Kissan kohtalo voidaan selvittää ratkaisemalla idealisoidun pistemäisen kissan (harmonisen oskillaattorin) tiheysmatriisin liikeyhtälö (mestariyhtälö) ympäristössä, jota mallinnetaan lämpökylvyllä. Havaitaan, että ympäristön vuorovaikutus kissan kanssa aiheuttaa dekoherenssiksi kutsutun ilmiön, mikä pienentää tiheysmatriisin koherenssitermejä (ei diagonaalilla olevia) eksponentiaalisesti ajan funktiona. Dekoherenssiaika (aika, jolloin koherenssitermit ovat pienentyneet e:nteen osaan) riippuu pääasiassa lämpötilasta ja ajasta. Työssäni kävin läpi dekoherenssiajan korkean ja matalan lämpötilan käyttäytymiset sekä pitkän että lyhyen aikaskaalan tapahtumille. Paljastui, että dekoherenssi on erittäin nopea ilmiö, minkä takia sen havaitseminen on todella vaikeaa – itse asiassa dekoherenssin tapahtuminen nähtiin koejärjestelyissä vasta 1990-luvulla. Tämän selvitystyön jälkeen on helppo ymmärtää, miksi kissa ei olekaan superpositiossa vaan klassisen kaltaisessa tilassa. Kissan paradoksi olikin vain näennäinen paradoksi, joka poistui ilmiön riittävän tarkalla ymmärtämisellä – kissaa ei voi täysin eristää ympäristöstään. Itse asiassa kissan atomien välinen vuorovaikutus riittäisi aikaansaamaan dekoherenssin. Dekoherenssi siis aiheuttaa vastaavuuden kvantti- ja klassisen fysiikan välille. Dekoherenssin paremmasta ja täsmällisemmästä ymmärtämisestä on hyötyä niin kvanttimekaaniselle perustutkimukselle, kosmologialle kuin sovelluspuolella mahdollisesti joskus rakennettavan kvanttitietokoneen valmistamisellekin. Jatkotutkimuksina olisi mielenkiintoista selvittää, kuinka dekoherenssiaika riippuu vuorovaikuttavien systeemien määrästä ja erilaisista vuorovaikutustyypeistä. Tässä tutkimuksessahan käytettiin yksinkertaisinta mahdollista kissan ja lämpökylvyn välistä kytkentää.
  • Hartonen, Tuomo (2013)
    Ability to deduce three-dimensional structure of a protein from its one-dimensional amino acid chain is a long-standing challenge in structural biology. Accurate structure prediction has enormous application potential in e.g. drug development and design of novel enzymes. In past this problem has been studied experimentally (X-ray crystallography, nuclear magnetic resonance imaging) and computationally by simulating molecular dynamics of protein folding. However, the latter requires enormous computing resources and the former is expensive and time-consuming. Direct contact analysis (DCA) is an inference method relying on direct correlations measured from multiple sequence alignments (MSA) of protein families to predict contacts between amino acids in the three-dimensional structure of a protein. It solves the 21-state inverse Potts problem of statistical physics, i.e. given the correlations, what are the interactions between the amino acids of a protein. The current state of the art in the DCA approach is the plmDCA-algorithm relying on pseudolikelihood maximization. In this study the performance of the parallelised asymmetric plmDCA-algorithm is tested on a diverse set of more than 100 protein families. It is seen that generally for MSA's with more than approximately 2000 sequences plmDCA is able to predict more than half of the 100 top-scoring contacts correctly with the prediction accuracy increasing almost linearly as a function of the number of sequences. Parallelisation of plmDCA is also observed to make the algorithm tens of times (depending on the number of CPU cores used) faster than the previously described serial plmDCA. Extensions to Potts model taking into account the differences in distributions of gaps and amino acids in MSA's are investigated. An extension incorporating the position-dependant frequencies of gaps of length one to Potts model is found to increase the prediction accuracy for short sequences. Further and more extensive studies are however needed to discover the full potential of this approach.
  • Leskinen, Matti (2018)
    The theme of the thesis has been the preparation of cellulose particles from homogeneous ionic liquid solutions. The work approaches this topic from the materials chemistry perspective and focuses on physical properties of the obtained materials and the methodological details of their preparation. Novel cellulose macro- and microparticles have been prepared from two cellulose solvents systems, [DBNH][OAc]/DMSO and [P4441][OAc]/GVL. The two types of particles and their preparation methods are very different and distinct. The large beads are prepared using remarkably simple hands-on method, while the small particles are prepared by exploiting a thermally triggered gelation of cellulose. Both particles are scientifically interesting and observations made during their preparation provide insight to the field of cellulose materials chemistry. Special attention has been given to exploring their potential applications outside the laboratory in the commercial and industrial sectors. The laboratory work examines the experimental parameters of the cellulose particle production methods in detail. The particle preparation methods are very simple in practice. Emphasis has been given to describing the observed novel phenomena and fine-tuning the processes for efficiency. The procured cellulose particles have been analysed using a variety of methods including optical microscopy, SEM, XRD, WAXS, CP-MAS, VSM and H-NMR.