Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by Title

Sort by: Order: Results:

  • Niska, Päivö (2024)
    This thesis delves into the complex world of multi-model database migration, investigating its theoretical foundations, strategic implementation, and implications for modern data management. The research utilizes a mixed-methods approach, combining quantitative benchmarking tests with qualitative insights from industry practitioners to give a comprehensive knowledge of the migration process. The importance of smart migration techniques, as well as the crucial function of schema mapping in assuring data consistency are highlighted as key results. Success examples from a variety of industries highlight the practical relevance and advantages of multi-model database migration, while implications for theoretical advances and practical issues in organizational contexts are discussed. The strategic implementation framework leads businesses via rigorous project planning, schema mapping, and iterative optimization, stressing the joint efforts of multiple stakeholders. Future concerns include the influence of developing technologies, the dynamic interaction between migration and data security, and industry-specific subtleties impacting migration tactics as the technological environment advances. The synthesis of ideas leads to a common knowledge base, defining the data management strategy discourse. This investigation serves as a road map for informed decision-making, iterative optimization, and continual adaptation in database management, developing a better knowledge of multi-model database migration in the context of modern data ecosystems.
  • Piipponen, Tiia (2014)
    Tämän tutkielman tarkoituksena on antaa lukijalle pohjatiedot bayesilaisesta tilastollisesta päättelystä. Tutkielmassa esitellään kaksi usein bayesilaisessa päättelyssä käytettävää todennäköisyysjakaumaa: diskreetti multinomijakauma ja jatkuva Dirichlet-jakauma. Tutkielmassa tutustutaan jakaumien soveltamisen kannalta keskeisimpiin ominaisuuksiin. Lisäksi jakaumien yhteisjakauma Dirichlet-multinomijakauma esitellään. Tilastollisen päättelyn tarkoituksena on tehdä havainnon perusteella johtopäätöksiä mittaamattomista suureista. Bayesilainen päättely sallii arvioitavaan suureeseen kohdistuvien ennakkotietojen huomioonottamisen päättelyprosessissa. Priorijakauma sisältää ennakkokäsitykset arvioitavasta suureesta. Uskottavuusfunktio on puolestaan havainnon todennäköisyysjakauma. Ennakkotieto ja havainnosta saatava tieto voidaan yhdistää Bayesin kaavalla ja näin priorijakauma päivitetään posteriorijakaumaksi. Johtopäätökset tehdään posteriorijakaumasta. Bayesilainen päättely vaatii paljon numeerista integrointia ja sen suosio on kasvanut tietoteknisen kehityksen myötä. Sitä sovelletaan nykyään monilla eri tieteenaloilla. Tutkielmassa käsitellään sitä, kuinka multinomijakaumasta poimitun havainnon perusteella voidaan estimoida multinomijakauman parametreja bayesilaisin menetelmin. Tästä annetaan esimerkki. Dirichlet-multinomijakaumaa voidaan soveltaa esimerkiksi bayesilaisessa mallivertailussa ja myös tästä annetaan käytännön esimerkki. Tutkielman sisällön ymmärtämiseksi vaaditaan, että lukijalla on pohjatiedot todennäköisyyslaskennan peruskäsitteistä. Lisäksi joukko-opilliset operaatiot ja tärkeimmät kuvauksiin, differentiaali- ja intergaalilaskentaan liittyvät asiat oletetaan tunnetuiksi. Tutkielmassa tehdään vertailua bayesilaisen ja frekventistisen tilastollisen päättelyn välillä ja oletetaan, että lukija tuntee frekventistisen tilastollisen päättelyn perusmenetelmät.
  • Lindholm, Krista (2022)
    Nowadays a growing number of mobile devices are in use, and the internet connections with mobile devices are increasingly important for the everyday life of the global population. As a result, applications and use cases of different requirements including high throughput, reliability and continuous connection have emerged for mobile device connections. Multipath transport located on the transport layer of the TCP/IP model has been proposed as a solution for providing better throughput, reliability and smooth handovers for mobile devices. Multiple network interfaces are present in current mobile devices, and multipath protocols can utilize them to transfer data through multiple paths inside one connection. Multipath protocols of parallel functionality have been proposed over the years, and relevant protocol versions include multipath extensions for well-known transport layer protocols. The aim of the thesis is to provide an overview of three multipath protocols, MPTCP, CMT-SCTP and MPQUIC and the advantages and limitations they have when used for mobile connectivity through a literature review. First the challenges of multipath transport and requirements specific for mobile device usage are identified, and an overview of the protocols and their features are discussed. Then the protocols are compared in the context of the identified challenges and mobile device use. MPTCP is the only transport layer multipath protocol currently deployed and in use, while CMT-SCTP faces problems with deployability. MPQUIC shows promise for having initially comparable performance and deployability with MPTCP. Transport layer multipath protocols are currently not optimal for interactive applications and have suboptimal performance in heterogeneous network conditions. Conversely, they can provide a boost for throughput with data intensive applications and can be helpful for providing smoother handovers, but at the cost of higher energy consumption.
  • Chen, Cheng (2022)
    How to store data is an enduring topic in the computer science field, and traditional relational databases have done this well and are still widely used today. However, with the growth of non-relational data and the challenges in the big data era, a series of NoSQL databases have come into view. Thus, comparing, evaluating, and choosing a better database has become a worthy topic of research. In this thesis, an experiment that can store the same data set and execute the same tasks or workload on the relational, graph and multi-model databases is designed. The investigation proposes how to adapt relational data, tables on a graph database and, conversely, store graph data on a relational database. Similarly, the tasks performed are unified across query languages. We conducted exhaustive experiments to compare and report the performance of the three databases. In addition, we propose a workload classification method to analyze the performance of the databases and compare multiple aspects of the database from an end-user perspective. We have selected PostgreSQL, ArangoDB, Neo4j as representatives. The comparison in terms of task execution time does not have any database that completely wins. The results show that relational databases have performance advantages for tasks such as data import, but the execution of multi-table join tasks is slow and graph algorithm support is lacking. The multi-model databases have impressive support for simultaneous storage of multiple data formats and unified language queries, but the performance is not outstanding. The graph database has strong graph algorithm support and intuitive support for graph query language, but it is also important to consider whether the format and interrelationships of the original data, etc. can be well converted into graph format.
  • Aarnos, Mikko (2023)
    A major innovation in statistical mechanics has been the introduction of conformal field theory in the mid 1980’s. The theory postulates the existence of conformally invariant scaling limits for many critical 2D lattice models, and then uses representation theory of a certain algebraic object that can be associated to these limits to derive exact solvability results. Providing mathematical foundations for the existence of these scaling limits has been a major ongoing project ever since, and lead to the introduction of Schramm-Löwner evolution (or SLE for short) in the early 2000’s. The core insight behind SLE is that if a conformally invariant random planar curve can be described by Löwner evolution and fulfills a condition known as the domain Markov property, it must be driven by a Wiener process with no drift. Furthermore, the variance of the Wiener process can be used to define a family SLE𝜅 of random curves which are simple, self-touching or space-filling depending on 𝜅 ≥ 0. This combination of flexibility and rigidity has allowed the scaling limits of various lattice models, such as the loop-erased random walk, the harmonic explorer, and the critical Ising model with a single interface, to be described by SLE. Once we move (for example) to the critical Ising model with multiple interfaces it turns out that the standard theory of SLE is inadequate. As such we would like establish the existence of multiple SLE to handle these more general situations. However, conformal invariance and the domain Markov property no longer guarantee uniqueness of the object so the situation is more complicated. This has led to two main approaches to the study of multiple SLE, known as the global and local approaches. Global methods are often simpler, but they often do not yield explicit descriptions of the curves. On the other hand, local methods are far more involved but as a result give descriptions of the laws of the curves. Both approaches have lead to distinct proofs that the laws of the driv- ing terms of the critical Ising model on a finitely-connected domain are described by multiple SLE3 . The aim of this thesis is to provide a proof of this result on a simply-connected domain that is simpler than the ones found in the literature. Our idea is to take the proof by local approach as our base, simplify it after restricting to a simply-connected domain, and bypass the hard part of dealing with a martingale observable. We do this by defining a function as a ratio of what are known as SLE3 partition functions, and use it as a Radon-Nikodym derivative with respect to chordal SLE3 to construct a new measure. A convergence theorem for fermionic observables shows that this measure is the scaling limit of the law of the driving term of the critical Ising model with multiple interfaces, and due to our knowledge of the Radon-Nikodym derivative an application of Girsanov’s theorem shows that the measure we constructed is just local multiple SLE3.
  • Pohjola, Ilmari (2020)
    This thesis will present a basic total variation based image denoising method which in applied mathematics is a specic case of a large group of problems called inverse problems. This study will specically concentrate on choosing a suitable regularization parameter and aims to investigate whether it could be automatically done by a method which was introduced in a paper called "Multiresolution Parameter Choice Method for Total Variation Regularized Tomography" (Kati Niinimäki, Lassas, Keijo Hämäläinen, Aki Kallonen, Ville Kolehmainen, Esa Niemi, and Samuli Siltanen. SIAM J. IMAGING SCIENCES 2016). I will go through the theoretical basic concepts regarding total variation based regularization and inverse problems in general. Finally I will introduce a new automatic parameter choice method candidate proposed by my supervisor, Samuli Siltanen, and gather some results how well it performs with the given task in practice.
  • Djurabekova, Amina (2022)
    Energy is an essential input for any non-spontaneous mechanism. In biological organisms, the process of producing energy currency, adenosine triphosphate, is called cellular respiration. It is made of three smaller steps, out of which the last one is oxidative phosphorylation that is responsible for the largest production of adenosine triphosphate molecules in the whole process. Oxidative phosphorylation is performed by the electron transport chain made of five protein complexes, named respiratory complex I-V. Complex I is the first and largest protein complex in the electron transport chain, and it is the least understood. Its primary function is to transfer electrons from nicotinamide adenine dinucleotide to ubiquinone, which is coupled to the pumping of four protons across the mitochondrial inner membrane. Although the overall reaction of complex I is understood, the intricate detail of the mechanism is still largely unknown. There is significance in the details because there are numerous point mutations, which have been strongly correlated with neurogenerative diseases, such as Leigh’s syndrome, and aging. Therefore, a more thorough understanding of its mechanism can give insight into potential target drug development. Complex I is made of 14 highly conserved subunits that can be found in most species that use the electron transport chain. They create an L-shape, where seven subunits are embedded in the inner membrane, the membrane domain, and the others are floating in the mitochondrial matrix, the peripheral arm. In mitochondrial complex I, however, there are in addition around 30 accessory subunits. It has been previously thought that the main mechanism is conducted by the 14 subunits that are found in all species. However, in the past couple of years, it has been shown that accessory subunits can play an important role in the mechanism of mitochondrial complex I. The work presented in this thesis uses a multiscale computational approach to study the effect of three mutations, F89A, Y43A and L42A, from an accessory subunit LYRM6 on the function of complex I. Previous experiments demonstrated that the mutations decreased the overall activity of complex I by 76-86 %. The LYRM6 subunit is located at the pivot of the membrane and periplasmic domains. The results of this study show that the point mutations have a long-range effect on the conformations of three loops from three conserved subunits in this region. The shift in the loop dynamics causes a drop in water occupancy. The observed water pathway is tested for the capability of proton transfer. The findings are demonstrated with the help of molecular dynamics and quantum mechanics/molecular mechanics simulations.
  • Hauru, Markus (2013)
    This thesis reviews the multiscale entanglement renormalisation ansatz or MERA, a numerical tool for the study of quantum many-body systems and a discrete realisation of the AdS/CFT duality. The thesis covers an introduction to the necessary background concepts of entanglement, entanglement entropy and tensor network states, the structure and main features of MERA and its applications in condensed matter theory and holography. Also covered are details on the algorithmic implementation of MERA and some of its generalisations and extensions. MERA belongs to a class of variational ansatze for quantum many-body states known as tensor network states. It is especially well-suited for the study of scale invariant critical points. MERA is based on a real-space renormalisation group procedure called entanglement renormalisation, designed to systematically handle entanglement at different length scales along the coarse-graining flow. Entanglement renormalisation has be used for example to efficiently describe Kitaev states of the toric code, the prime example of topological order, and numerically study the ground state of the highly frustrated spin-1/2 Heisenberg model on a kagome lattice and various other one- and two-dimensional lattice models. The geometric and causal structure of MERA, which underlies its effectiveness as a numerical tool, also makes it a discrete version of the AdS/CFT duality. This duality describes a conformal field theory by a gravity theory in a higher dimensional space, and vice versa. The duality is manifest in the scaling of entanglement entropy in MERA, which is governed by a law highly analogous to the Ryu-Takayanagi formula for holographic entanglement entropy, in the connection between thermal states and a black-hole-like MERA and in the connection between correlation functions and holographic geodesics in a scale invariant MERA. The aim of this thesis is to lead the reader to an understanding of what MERA is, how it works and how it can be used. MERA's core features and uses are presented in a comprehensive and explicit way, and a broad view of possible applications and further directions is given. Plenty of references are also offered to direct the reader to further research on how MERA may relate to his/her interests.
  • Gierlach, Mateusz Tadeusz (2020)
    Visual fashion understanding (VFU) is a discipline which aims to solve tasks related to clothing recognition, such as garment categorization, garment’s attributes prediction or clothes retrieval, with the use of computer vision algorithms trained on fashion-related data. Having surveyed VFU- related scientific literature, I conclude that, because of the fact that at the heart of all VFU tasks is the same issue of visually understanding garments, those VFU tasks are in fact related. I present a hypothesis that building larger multi-task learning models dedicated to predicting multiple VFU tasks at once might lead to better generalization properties of VFU models. I assess the validity of my hypothesis by implementing two deep learning solutions dedicated primarily to category and attribute prediction. First solution uses multi-task learning concept of sharing features from ad- ditional branch dedicated to localization task of landmarks’ position prediction. Second solution does not share knowledge from localization branch. Comparison of those two implementations con- firmed my hypothesis, as sharing knowledge between tasks increased category prediction accuracy by 53% and attributes prediction recall by 149%. I conclude that multi-task learning improves generalization properties of deep learning-based visual fashion understanding models across tasks.
  • Kutvonen, Konsta (2020)
    With modern computer vision algorithms, it is possible to solve many different kinds of problems, such as object detection, image classification, and image segmentation. In some cases, like in the case of a camera-based self-driving car, the task can't yet be adequately solved as a direct mapping from image to action with a single model. In such situations, we need more complex systems that can solve multiple computer vision tasks to understand the environment and act based on it for acceptable results. Training each task on their own can be expensive in terms of storage required for all weights and especially for the inference time as the output of several large models is needed. Fortunately, many state-of-the-art solutions to these problems use Convolutional Neural Networks and often feature some ImageNet backbone in their architecture. With multi-task learning, we can combine some of the tasks into a single model, sharing the convolutional weights in the network. Sharing the weights allows for training smaller models that produce outputs faster and require less computational resources, which is essential, especially when the models are run on embedded devices with constrained computation capability and no ability to rely on the cloud. In this thesis, we will present some state-of-the-art models to solve image classification and object detection problems. We will define multi-task learning, how we can train multi-task models, and take a look at various multi-task models and how they exhibit the benefits of multi-task learning. Finally, to evaluate how training multi-task models changes the basic training paradigm and to find what issues arise, we will train multiple multi-task models. The models will mainly focus on image classification and object detection using various data sets. They will combine multiple tasks into a single model, and we will observe the impact of training the tasks in a multi-task setting.
  • Yaman, Sezin Gizem (2015)
    Education is one important field where interactive tables can be used as supportive tools. While many studies introduce multi-touch displays for collaborative use, the requirements and benefits of using such a technology in science education are still unclear to teaching professionals. This thesis focuses on the role of multi-touch tables in high school science education. Three different aspects are examined: i) the aspects of multi-touch tables that are important in science education, ii) the facets of general research in interactive tables that also benefit research in multi-touch tables, and, iii) experimental multi-touch framework features that are useful in a high school science classroom. The study includes a comprehensive examination of background research in the field, followed by a case study that examines the perceptions regarding interactive tables among high school teachers and the development life-cycle of a multi-touch framework. The case study covers interviews and questionnaires with high school teachers. At the end of the thesis, the research questions are answered. Based on the study, collaborative group works, social interactions, inquiry-based learning and visual learning are the most important aspects of multi-touch tables in science education. Some facets of general research into interactive tabletops also relate to the study of multi-touch tables in education. The most important of these are space, interactivity, participation and orchestration. Experimental framework features, observation of laboratory experiments, visualization, and extendibility are useful for a high-school science classroom. To maximize the benefit of interactive tables, it is necessary to first investigate the purpose of the learning environment in order to understand the critical variables and constraints. Then, attentively constructing a learning environment's dynamics to support multi-touch tables can enhance high school science education.
  • Bernardo, Alexandre (2020)
    In insurance and reinsurance, heavy-tail analysis is used to model insurance claim sizes and frequencies in order to quantify the risk to the insurance company and to set appropriate premium rates. One of the reasons for this application comes from the fact that excess claims covered by reinsurance companies are very large, and so a natural field for heavy-tail analysis. In finance, the multivariate returns process often exhibits heavy-tail marginal distributions with little or no correlation between the components of the random vector (even though it is a highly correlated process when taking the square or the absolute values of the returns). The fact that vectors which are considered independent by conventional standards may still exhibit dependence of large realizations leads to the use of techniques from classical extreme-value theory, that contains heavy-tail analysis, in estimating an extreme quantile of the profit-and-loss density called value-at-risk (VaR). The need of the industry to understand the dependence between random vectors for very large values, as exemplified above, makes the concept of multivariate regular variation a current topic of great interest. This thesis discusses multivariate regular variation, showing that, by having multiple equivalent characterizations and and by being quite easy to handle, it is an excellent tool to address the real-world issues raised previously. The thesis is structured as follows. At first, some mathematical background is covered: the notions of regular variation of a tail distribution in one dimension is introduced, as well as different concepts of convergence of probability measures, namely vague convergence and $\mathbb{M}^*$-convergence. The preference in using the latter over the former is briefly discussed. The thesis then proceeds to the main definition of this work, that of multivariate regular variation, which involves a limit measure and a scaling function. It is shown that multivariate regular variation can be expressed in polar coordinates, by replacing the limit measure with a product of a one-dimensional measure with a tail index and a spectral measure. Looking for a second source of regular variation leads to the concept of hidden regular variation, to which a new hidden limit measure is associated. Estimation of the tail index, the spectral measure and the support of the limit measure are next considered. Some examples of risk vectors are next analyzed, such as risk vectors with independent components and risk vectors with repeated components. The support estimator presented earlier is then computed in some examples with simulated data to display its efficiency. However, when the estimator is computed with real-life data (the value of stocks for different companies), it does not seem to suit the sample in an adequate way. The conclusion is drawn that, although the mathematical background for the theory is quite solid, more research needs to be done when applying it to real-life data, namely having a reliable way to check whether the data stems from a multivariate regular distribution, as well as identifying the support of the limit measure.
  • Ward, Matthew David (2023)
    Black carbon is an aerosol that is a product of incomplete combustion, the main sources are anthropogenic, such as internal combustion engines and burning of biomass. It is ideally absorbing across the visible light spectrum. Carbonaceous aerosols have a range of negative effects such as lung diseases in the local population and radiative force on the Earth. Therefore it is important to determine not only the concentration of these aerosol particles but also identify their sources. Typical measurement methods for monitoring of aerosols involves instruments employing a filter based technique such as an aethalometer. The major drawbacks to such instruments are that the time resolution is in the order of some minutes and some form of correction factors must be applied depending variations such as the time of year the measurement and differing compositions of carbonaceous aerosols based on locality. A 3 wavelength cantilever enhanced photoacoustic spectroscopy instrument was developed during this work to detect the absorption of these particles across the visible range. The benefits of using cantilever enhanced photoacoustic spectroscopy are a time resolution in the order of seconds rather than minutes and that no correction factor is required for the measured absorption value for the particles. In this thesis it is demonstrated that multi-wavelength photoacoustic spectroscopy can be used for measuring black carbon aerosols and the information obtained can be used estimate the source of those particles.
  • Takala, Ninni (2023)
    Polymeerimateriaalit ovat merkittävä osa nykyistä elämäntapaa ja monet niiden parhaista ominaisuuksista ovat erilaisten lisäaineiden ansiota. Näiden lisäaineiden analysoiminen on tärkeää muovituotteiden laadun ja turvallisuuden takaamiseksi, ja kaasukromatografia on yksi tärkeimmistä analyysimenetelmistä, joita tähän käytetään. Muovinäytteiden analysoiminen ei kuitenkaan ole aina yksinkertaista, sillä muovit sisältävät hyvin paljon erilaisia yhdisteitä, joiden kemialliset ja fyysiset ominaisuudet poikkeavat toisistaan suuresti, mikä vaikeuttaa sekä muovinäytteiden esikäsittelyä että analysoimista. Kirjallisuuskatsauksessa perehdytään aluksi muoveihin materiaaleina. Tämän jälkeen tarkastellaan muoveissa käytettyjä lisäaineryhmiä, erityisesti slip-lisäaineita, antioksidantteja, UV-stabilisaattoreita, pehmiteaineita ja palonestoaineita. Kirjallisuuskatsauksen lopuksi perehdytään muovien lisäaineiden analysoimiseen kaasukromatografisilla menetelmillä alkaen näytteiden esikäsittelystä ja päättyen analyyttien detektointiin. Kokeellisessa tutkimusprojektissa kehitettiin ja validoitiin uusi kaasukromatografinen menetelmä näytteenkäsittelyineen DL-α-tokoferolin ja (Z)-dokos-13-enamidin määrittämiseen pientiheyspolyeteenin granulaateista. Tutkimus tapahtui Borealis Polymers Oy:n Porvoon laadunvalvontalaboratoriossa ja menetelmä kehitettiin tehtaan laadunvalvontaa varten. Uudessa menetelmässä lisäaineet uutetaan ensin etyyliasetaatilla ja analysoidaan sitten liekki-ionisaatio detektorilla varustetulla kaasukromatografilla. Työn lopuksi menetelmä validoitiin. Validointiprosessissa varmistettiin menetelmän lineaarisuus, toistettavuus, totuudenmukaisuus ja selektiivisyys, minkä lisäksi selvitettiin menetelmän mittausepävarmuus sekä toteamis- ja määritysrajat. Menetelmä täytti validoinnissa kaikki sille ennakkoon asetetut tavoitteet.
  • Venho, Heidi (2018)
    Pro gradu -tutkielmani tavoitteena oli kehittää toiminnallisen matematiikan opetusmateriaali sellaiseen aiheeseen, johon ei vielä ole kunnollista materiaalia. Helsingin yliopistolla toimivan LUMA-keskuksen tiedekasvatuskeskuksen tiedeluokka Summamutikan koordinaattorin Jenni Räsäsen avustuksella aihealueeksi valikoitui murtolukujen ja desimaalilukujen välinen yhteys. Tutkielmani päätavoite on esitellä kehittämäni opetusmenetelmää aihealueeseen. Perustelen myös kehittämäni opetusmenetelmän toimivuutta tekemäni tutkimuksen perusteella kahdelle Keravan Kurkelan koulun 7.luokan oppilaiden, sekä kolmen koulun opettajan palautteiden pohjalta. Ennen tätä käyn kuitenkin läpi kappaleessa kaksi opetussuunnitelman vaatimukset murtolukujen, desimaalilukujen, sekä murtolukujen ja desimaalilukujen välisen yhteyteen. Lisäksi valitsin alakoulun 3.luokasta yläkoulun 7.luokkaan saakka yksittäisiä oppikirjoja, joiden tapaa opettaa aihetta avaan hieman enemmän. Tässä kappaleessa esittelen myös aiemmin kehitettyjä toiminnallisia menetelmiä murtolukujen ja desimaalilukujen väliseen yhteyteen. Kerron myös Milla Ristiluoman kehittämästä vastaavantyylisestä menetelmästä murtolukujen opetukseen. Kolmannessa kappaleessa perustelen toiminnallisen matematiikan hyödyllisyyttä matematiikan opetuksessa erilaisten oppimiskäsitysten ja oppimismenetelmien nojalla. Esittelen myös Unkarilaista Varga-Nemenyi menetelmää, joka pohjautuu hyvin pitkälle toiminallisen matematiikan menetelmiin. Tämän lisäksi olen koostanut kappaleeseen osion, jossa pohditaan murtolukujen ja desimaalilukujen oppimisvaikeuksia siitäkin huolimatta, että murtoluvut ovat olleet vuosisatoja tarvittu väline. Neljännessä kappaleessa esittelen tarkemmin kehittämäni opetusmenetelmän ja osoitan menetelmän toimivuutta konkreettisten esimerkkien avulla. Viidennessä kappaleessa käyn puolestaan läpi opetusmenetelmäni ympärille tekemäni oppituntisuunnitelman, sen testaamisen koululla sekä saamaani palautetta opetusmenetelmästäni. Re ektoin viidennessä kappaleessa myös omia tuntemuksiani saamaani palautteeseen verraten, sekä itse oppitunnin sujumista. Tämän lisäksi käyn läpi kehitysideoita opetusmenetelmästäni. Liitteinä löytyy käyttämäni oppituntisuunnitelma, palauttelomakkeet oppilaille ja opettajalle, sekä ohjeet opetusmenetelmäni ohjelmointiversioon.
  • Ristiluoma, Milla (2018)
    Tutkimuksen tavoitteena on luoda toiminnallista materiaalia murtolukujen opetukseen ja testata sitä aidoissa opetustilanteissa alakoulussa. Materiaali on luotu käyttäen peltipizzamallia. Peltipizzamallilla havainnollistetaan suorakulmaisen alustan ja tussin avulla murtolukujen yhteen-, vähennys-, kerto- ja jakolaskua sekä suuruusvertailua ja ekvivalenssiluokkia. Murtoluvut on yksi haasteellisimmista matematiikan aiheista alakoulussa. Murtolukujen opetuksessa tulisi kiinnittää huomiota käsitteenmuodostuksen prosessiin. Ymmärrykseen tähtäävään murtolukujen opetukseen kannattaa ottaa avuksi toiminta- ja havainnointimateriaaleja. Niillä oppilas saa itse kokeilla ja keksiä murtolukujen laskusäännöt. On tärkeää, että laskiessaan murtoluvuilla oppilas ymmärtää, miksi murtolukujen laskusäännöt toimivat ja osaa esittää laskutoimitukset myös havainnointimateriaaleilla ja sanallistaa laskutoimituksen.Toimintamateriaalia murtolukujen opetukseen on paljon saatavilla. Tutkimuksessa käytettävän peltipizzamallin etu on siinä, että se on helppo ja halpa malli valmistaa sekä sillä voidaan mallintaa kaikki aitojen murtolukujen yhteen-, vähennys-, kerto-, sekä jakolaskut. Harva toimintamateriaali pystyy tähän. Peltipizzamallia voi käyttää myös koetilanteessa, koska materiaaliksi riittää kynä ja paperia. Tutkimukseen osallistuvat oppilaat pitivät uudesta murtolukumallista ja kokivat sen pääosin hyödylliseksi. Otoskoko oli pieni, ja oppilaiden osaamistasoa ei mitattu, joten yleistyksiä on vaikea tehdä. Havaintojen ja palautteen perusteella peltipizzamallille olisi käyttöä murtolukujen opetuksessa.
  • Zhou, Wenqing (2013)
    With the prevalence of Internet and mobile technology, it becomes much easier for people to access millions of songs anywhere, anytime. The explosive increase of music collections on the Internet makes music retrieval much harder and more complicated for normal users. A music recommender system is a music retrieval system, which actively recommends music collections to users based on their preferences. Many general recommender system techniques are also suitable for music recommendation. In this work, we evaluated five music recommendation algorithms: popularity-based, item-based, userbased, Pure-SVD, and incremental-SVD approach. The experiment was conducted on a real-world music listening history dataset from Last.fm. We used recall@N to evaluate the performance of different recommendation algorithms on a top-N recommendation task. The result showed that the SVD-based approaches generally have better performance than other types of recommendation algorithm. The incremental-SVD approach produced the best performance among all, and the Pure-SVD approach achieved the second-best result with very good scalability.
  • Rönkönharju, Tommi (2013)
    Musiikin transkriptiossa on useimmiten tarkoituksena luoda kuunnellusta musiikkinäytteestä nuottiesitys, joka kuvaa musiikin keskeisiä ominaisuuksia ja tapahtumia helposti käsiteltävässä ja muokattavassa muodossa. Transkription suorittaminen on ollut pitkään mahdollista vain musiikillisesti harjaantuneelle korvalle, mutta nykymenetelmillä on pystytty jo tuottamaan alustavaa automatisointia asiaan liittyen. Tässä tutkielmassa kartoitetaan aluksi nykyisiä musiikin transkription menetelmiä, jotka käyttävät raakaa audiodataa tiedonlähteinään ja ovat tietokoneella suoritettavissa. Menetelmät voidaan pääpiirteissään jakaa sävelkorkeuksien, rytmiikan ja sointujen tunnistukseen. Tarkoituksena ei ole vertailla eri menetelmien tehokkuutta, vaan kartoittaa esillä olevan ongelman erilaisia ratkaisumalleja ja niiden toimintaperiaatteita. Tutkielman pääasiallisena tarkoituksena on kehittää musiikin harmoniseen analyysiin pohjautuva jazzimprovisaatioanalyysin automatisoiva algoritmi. Tavoitteena on automatisoida se prosessi, jonka jazzmuusikot tekevät suunnitellessaan käsiteltävänä olevan musiikkinäytteen harmonisia mahdollisuuksia improvisaatioon liittyen. Tutkielmassa kehitetään myös musiikkinäytteiden harmonisia ominaisuuksia kuvailevia kvantitatiivisia mittareita, joita voidaan käyttää eri musiikkinäytteiden systemaattiseen vertailuun ja luonnehdintaan. Kehitettyä algoritmia ja mittareita testataan lopuksi oikeisiin musiikkiesityksiin perustuvilla syötteillä.
  • Vatanen, Sanni (2015)
    Tämä tutkielma sisältää materiaalia lukion pitkän matematiikan opetukseen. Materiaali on laadittu vuoden 2003 opetussuunnitelman pohjalta pitkän matematiikan kertauskurssin tunnille, jossa aiheena on trigonometriset funktiot ja lukujonot. Materiaalissa on soveltavia, sanallisia tehtäviä, jotka liittyvät musiikkiin. Tunti on suunniteltu pidettäväksi musiikkilukiossa, jossa opiskelijoilla on riittävät musiikilliset tiedot tehtävien tekemiseen. Tehtävät matematiikan sisällöltään liittyvät aritmeettiseen ja geometriseen lukujonoon sekä sini- ja kosinifunktioihin. Musiikin sisällöltään tehtävät liittyvät yläsävelsarjaan, sinifunktioilla kuvattuihin äänifunktioihin sekä eri viritysjärjestelmiin ja niistä aiheituviin musiikillisiin ongelmiin. Oppitunti toteutettiin Sibelius-lukiossa tammikuussa 2015. Tutkielmassa esitellään materiaaliin liittyvät taustat ja teoriat, pohditaan oppitunnin sisältöä, rakennetta ja opiskelijoilta saatua palautetta sekä esitellään kehittämisehdotuksia materiaaleihin. Koska materiaalissa matematiikan tehtävät liittyvät musiikkiin, voidaan materiaalia hyödyntää vuonna 2016 voimaan tulevassa opetussuunnitelmassa, jossa oppiainerajat ylittävää opetusta korostetaan. Opiskelijoilta saadusta palautteesta käy ilmi, että suurin osa oppilaista suosittelisi tunnin tehtäviä pitkän matematiikan sisältöihin ainakin valikoidulle joukolle, jolle musiikinteoria on ennestään tuttua. Tutkielmassa pohditaan myös materiaalin soveltamista eri opetustilanteisiin.
  • Hentunen, Teemu (Helsingin yliopistoUniversity of HelsinkiHelsingfors universitet, 2003)
    Tämä Pro gradu -tutkielma käsittelee Krakovan kaupungin teknomusiikkiin pohjautuvaa kaupunkikulttuurin osasta - Krakovan teknoheimoa. Antropologisella kenttätyömetodilla kerätyn aineiston pohjalta olen pyrkinyt selittämään kaupunkikulttuurin toimintaa nykyaikaisessa kulttuuriteollisuuden ja postfordistisen kapitalismin määrittämässä kaupungissa. Kaupungissa, joka on vuoden 1989 jälkeen, Puolan sosialistisen järjestelmän romahdettua, ajautunut jälleen mukaan globaalin kapitalismin pyörteisiin. Kapitalismin saapumisen myötä kaupunki ja sen elämä ovat saamassa lisääntyvissä määrin vahvistuvasta urbanisoitumisesta ja postmodernin kiistellystä epookista kertovia tunnusmerkkejä. Näistä tunnusmerkeistä selvin on Michel Maffesolin tunnistama ilmiö kaupunkielämän heimottumisesta. Postmodernien kaupunkikulttuurien leimaamissa kaupungeissa ihmisten yhteisöllisyys on muodostunut eri lähtökohdista kuin perinteisissä naapurustoihin pohjautuvissa kaupungeissa. Heimottuneissa yhteiskunnissa yhteisöllisyys muodostuu kuluttamisen ja ekstaattisen yhdessäolon kautta. Krakovassa on selviä merkkejä siitä, että kaupunkiheimot ovat korvaamassa perinteisen katoliseen kirkkoon pohjautuvan yhteisön. Yksi kaupunkiheimoista on teknomusiikkiin - elektroniseen tanssimusiikkiin-pohjaava kaupunkikulttuuri. Krakovan teknoheimo on globaalin teknokulttuurin ja paikallisen tilan ehdoilla toimiva yhteisö. Sen olemassaolo perustuu toisaalta tiettyjen, dominoivien henkilöiden haluun ansaita elantonsa teknomusiikin kautta ja toisaalta heimon jäsenten tarpeesta kokea yhteisöllisyyttä muiden samanlaisen maun omaavien henkilöiden kanssa. Teknomusiikin ja -heimon tarina on alkanut vasta 1980- luvun puolen välin paikkeilla Lontoosta, mutta kuitenkin alle 20 vuodessa se on levittäytynyt lähes koko maapallon alueelle. Nopea levittäytymistahti kertoo omaa tarinaansa nykyisen kulttuuriteollisuuden voimasta. Sen kyvystä omaksua uusien, mielenkiintoisten kulttuurien tavat, symbolit ja asenteet ja tehdä niistä kulutushyödykkeitä. Tämä on selvästi nähtävissä myös Krakovan teknoheimon elämässä. Kaupungissa on toisaalta nähtävissä teknoheimon taso, jossa harrastuneisuus ja aito innostus musiikkia ja tanssimista kohtaan on määräävässä asemassa, mutta myös kulttuurikoneisto, joka yrittää markkinoida teknoheimon elämäntavan helposti omaksuttavia osia mahdollisimman laajalle yleisölle. Teknoheimon kautta puolalaisen yhteiskunnan muutos kohti urbaanimpaa ja globalisoituneempaa maailmaa on selvästi nähtävissä. Se on ollut yksi niistä monista silloista, joita pitkin kapitalismin leimaamaa kaupunkikulttuuria on rakennettu entiseen sosialismin saarekkeeseen.