Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by Title

Sort by: Order: Results:

  • Yeom Song, Victor Manuel (2024)
    Planning and decision making are active areas of research in cognitive neuroscience that strive to explain how the brain makes decisions in complex scenarios. Research in this field has traditionally been restricted to simplistic experiments such as two-alternative forced choice situations, and has relatively recently broken into more naturalistic settings with the help of computational modeling and games. Importantly, these computational models aim to be interpretable, meaning that they are crafted in a way that what each parameter means has a clear meaning, perhaps in contrast to massive neural networks. However, the latter may better capture more complex behaviors that the hand-crafted model could miss, so it may be desirable to use a neural network as a guide or ``oracle'' to study and improve the parameters to include in the interpretable model. In this thesis, we present GPT-4IAR, a transformer neural network architecture for modeling and predicting human behavior in the board game four-in-a-row (4IAR). Building upon previous studies that use fully connected neural networks to improve models around 4IAR, and the excellent capabilities of the GPT architecture in tasks where data is sequential, we train a transformer on millions of games of 4IAR to study biases that arise in human decision making. Experiments show that conditioning action predictions on longer histories of previous moves leads to improved accuracy over prior state-of-the-art models, hinting at longer-term strategic biases in human gameplay. Reaction time prediction is also explored, showing promise in capturing meaningful gameplay statistics beyond raw actions.
  • Luukkonen, Petri Samuel (2015)
    In this thesis, a theoretical background of algorithms called NLS-BB-NMF and K-SVD for computing the image dictionary have been introduced. The NLS-BB-NMF algorithm computes the matrix factorization V ≈ WH of the training data matrix V (in our case the set of image patches from training image) using gradient descent methods by applying non-negative constraint on matrices W and H. The K-SVD in turn computes the matrix factorization WH applying sparsity constraint on the coefficient matrix H using Orthogonal Matching Pursuit (OMP) and Singular Value Decomposition (SVD). In the factorization, matrix W is the so called dictionary and it contains features, also called atoms, of the data V . The atoms serve as a building blocks of the original data, and they are also assumed to represent data that is similar to the training data V . The testing of the methods were carried in two phases. Initially, in the so called training phase, the dictionary was learned by the algorithms from a training image. The visual structure of the atoms learned by the algorithms were notably different although the approximations WH made by both dictionaries were visually very close to the original image. The visual difference between the learned dictionaries was seen as a consequence of the sparsity constraint that was forced for the coefficient matrix in K-SVD but not in NLS-BB-NMF. Secondly, in the test phase, a test image with various noise levels was approximated using the learned dictionary. The algorithms were able to produce approximations that were closer to the clean test image than the noisy test image. This was seen as the effect of dictionaries whose atoms were representing only the features of clean images. This observation led to a second test where the algorithms were tested to compute the denoised reconstructions of the test image with varying noise levels by using an extended dictionary containing additionally atoms learned from a noise sample. The qualities of the reconstructions were evaluated by using the Frobenius matrix norm and Structural Similarity (ssim) index that has been observed to adapt better the visual perception of human eyes.
  • McBride, Kiana (2024)
    Machine learning is by no means a novel field, but a recent boom in interest has led to a rapid increase in funding for related research. Because of this, many pure-mathematicians may find themselves trying to transition to this currently lucrative area of research. Thus, there is some demand for literature which helps ease this transition for mathematicians with a geometry or topology background. In this thesis we provide an introduction to contemporary machine learning research for a geometrically or topologically inclined individual. We do so by tracing the study of manifolds from their inception to modern machine learning. The thesis begins with a brief history of manifolds to motivate the examination of a proof of the Whitney embedding theorem. The theorem is then proved in detail, following texts from Adachi and Mukherjee on differential geometry. Later, a brief introduction to manifold learning introduces the reader to the manifold hypothesis and connects the classical study with its machine learning counterpart. Then, we provide a canonical introduction to neural networks after which we share rigorous mathematical definitions. Finally, we introduce the necessary preliminaries and subsequently prove the universal approximation theorem with injective neural networks. While we consider the Whitney embedding theorem as having applications in machine learning research, the universal approximation theorem with injective neural networks has clearer uses beyond mathematics. The studies of inverse problems and compressed sensing are two areas for which injectivity is a necessary condition for the well-posedness of common questions. Both fields have many deep applications to scientific and medical imaging. Injectivity is also a prerequisite for a function to preserve the topological properties of its domain.
  • Rantanen, Kari (2017)
    Graphical models are commonly used to encode conditional independence assumptions between random variables. Here we focus on undirected graphical models called chordal Markov networks. Specifically, we will consider the chordal Markov network structure learning problem (CMSL), where the aim is to find (or "learn") a graph structure that best fits the given data with respect to a given decomposable scoring function. We introduce a branch and bound search algorithm for CMSL which represents chordal Markov network structures as decomposable DAGs. We show how revisiting equivalent solution candidates can be avoided in the search by detecting symmetries among graph structures. For the symmetry breaking we apply specific rules by van Beek and Hoffman (CP 2015), and also propose a new rule that takes advantage of the special nature of decomposable DAGs. In addition, we show how we can achieve on-the-fly score pruning for CMSL. We also propose methods for obtaining strong upper bounds for CMSL that help us close branches in the search tree. We implement a dynamic programming algorithm to find the optimal Bayesian network structures and then use the scores of those graphs as upper bounds. We also show how we can relax the requirement for decomposability in decomposable DAGs in order to achieve even stronger upper bounds. Furthermore, we propose a method for obtaining an initial lower bound in CMSL by turning a Bayesian network structure into a chordal Markov network structure. Empirically we show that our approach is competitive with the recently proposed CMSL algorithms by being able to sometimes scale up to 20 variables within 24 hours with unbounded treewidth. We also report that our branch and bound requires considerably less memory than the fastest of the recently proposed algorithms for CMSL.
  • Martikainen, Jussi-Pekka (2019)
    Wood is the fuel for the forest industry. Fellable wood is collected from the forests and requires transportation to the mills. The distance to the mills is quite often very long. The most used long- distance transportation means of wood in Finland is by road transportation with wood-trucks. The poor condition of the lower road network increases the transportation costs not only for the forest industry but for the whole natural resources industry. Timely information about the conditions of the lower road network is considered beneficial for the wood transportation and for the road maintenance planning to reduce the transportation related costs. Acquisition of timely information about the conditions of the lower road network is a laborious challenge to the industry specialists due to the vast size of the road network in Finland. Until the recent development in ubiquitous mobile computing collecting the road measurement data and the detection of certain road anomalies from the measurements has traditionally required expensive and specialized equipment. Crowdsensing with the capabilities of a modern smartphone is seen as inexpensive means with high potential to acquire timely information about the conditions of the lower road network. In this thesis a literature review is conducted to find out the deteriorative factors behind the conditions of the lower road network in Finland. Initial assumptions are drawn about the detectability of such factors from the inertial sensor data of a smartphone. The literature on different computational methods for detecting the road anomalies based on the obtained accelerometer and gyroscope measurement data is reviewed. As a result a summary about the usability of the reviewed computational methods for detecting the reviewed deteriorative factors is presented. And finally suggestions for further analysis for obtaining more training data for machine learning methods and for predicting the road conditions are presented.
  • Takalahti, Antti Tapani (2016)
    Supervised machine learning consists of inferring a function from labelled examples. The examples used in this study are twenty second stretches of driving data and the labels are binary values of visually scored drowsiness.The ultimate goal is to predict future driving performance by looking only at the steering wheel angle and the position of the accelerator pedal over time. Chapter two explains what drowsiness is, how tools such as electroencephalogram and electrooculogram reveal drowsiness, and what other tools have been used to study drowsiness. Chapter three shows how a driver's drowsiness can be detected, and what the psychological aspects relevant to driving performance are. Some currently used methods are also described. Chapter four shows how the Karolinska drowsiness score is derived from electroencephalogram and electrooculogram, and how this score is used to train the nearest neighbour classifier to detect drowsiness from individual segments of driving data and further to predict driving performance.
  • Kangasaho, Mikko (2016)
    Legacy systems are software systems that hold great value to organizations, but which are difficult to maintain. Legacy systems can be wrapped with a REST wrapper in order to reuse their data and business logic. The motivation for the wrapping is to decouple new development from the legacy system so that the new development is not directly dependent on the legacy system's internals. The hypothesis I've seen in the software industry is that REST wrapping makes new development faster because the complexity of the legacy system does not slow new development down. Eventually the goal is that the legacy system can be incrementally replaced without changes to the clients that use its services via the REST API. This thesis examines REST wrapping by reviewing existing literature. REST wrapping as a concept is placed in the theoretical context of modernization techniques applied to systems in their post-delivery life cycle. In addition to conceptual clarification, two case studies found from the literature and the author's experiences in the software industry are examined to determine whether they support the theoretical models of REST wrapping as a modernization technique. The literature provided support for the notion that REST wrapping provides a low-cost way to reuse legacy systems functionality and data. It was also found to reduce the complexity of developing new functionality on top of a legacy system. The biggest shortcoming of REST wrapping is that it leaves the legacy system mostly unchanged. Like wrapping in general also REST wrapping is a short-term solution to legacy system's problems. It can be seen as a way to buy time to develop a long-term solution for the legacy system. ACM Computing Classification System (CCS): Software and its engineering → Software evolution Applied computing → Service-oriented architectures Information systems → RESTful web services
  • Tuura, Tommi (2020)
    Computers and computer networks have permeated public and private life across the planet. Billions of people are using seemingly centralized computer systems around the globe. These systems are expected to be always on, always available, and at least in some sense consistent in what kind of status they see users’ data to be in. The only way to build such large-scale systems is by distributing the data and computation to a multiple computers connected by networks. Such distribution will inevitably need to overcome a problem of consensus as all computers and their communication channels are human-made machinery and therefore subject to non-zero chance of hardware and software failures. This thesis is a survey of some well-known consensus protocols that have been proposed or deployed in practice to solve this problem. We cover Paxos, Viewstamped Replication, Zookeeper Atomic Broadcast and Raft and also skim through the general idea of the consensus algorithm proposed by Tushar Deepak Chandra and Sam Toueg in their work on failure detectors which is an important theoretical piece under every other consensus protocol we survey here. We also discuss the real-world usage these protocols have. This survey assumes trusted administrative domain for all protocol participants, therefore byzantine solutions and zero-trust solutions with blockchain are considered out of scope of this work.
  • Rusanen, Topias (2018)
    Röntgentomografiassa on tarkoitus hankkia tietoa jonkin tutkittavan kappaleen sisärakenteesta rikkomatta itse kappaletta. Tomografialaitteet ottavat kappaleesta paljon röntgenkuvia eri suunnilta. Kuvien perusteella on mahdollista laskea esimerkiksi poikkileikkauskuva kappaleesta. Jos röntgendataa on tarpeeksi, pystytään kuvien avulla luomaan kappaleesta kolmiulotteinen malli. Tätä mallia voidaan tarkastella mistä kuvakulmasta tahansa. Poikkileikkauskuvia ja kolmiulotteisia malleja kutsutaan \emph{rekonstruktioiksi}, sillä sisärakenne "rakennetaan uudelleen" röntgenkuvista. 4D-tomografiassa mukaan tulee myös aikaulottuvuus. Röntgendataa kerätään usealta ajanhetkeltä ja rekonstruktioksi muodostuu animaatio, joka kuvaa kappaleen rakenteen muutosta ajan suhteen. Myös tätä animaatiota pystytään tarkastelemaan mistä kuvakulmasta tahansa minä ajanhetkenä tahansa. Tämän opinnäytetyön tarkoitus on soveltaa kahta eri algoritmia rekonstruktioiden laskemiseen jokaiselle ajanhetkelle erikseen. Liikkuvasta LEGO-robotista on tarkoitus saada aikaiseksi 4D-rekonstruktio. Yhtenä ongelmana on, muodostavatko yksittäiset rekonstruktiot järkevän kokonaisuuden, kun ne asetetaan peräkkäin? Entä millä tavalla eri algoritmeilla lasketut rekonstruktiot eroavat toisistaan?
  • Aapro, Vili (2016)
    Rakennetaan erityisesti euklidisen avaruuden matematiikkaa matriiseja välttäen ja tähdäten Rogersin—Milnorin analyyttiseen todistukseen Brouwerin kiintopistelauseelle. Kehitetään analyysin ja multilineaarisen algebran perusteita, joista mainittakoon tulon derivaatta sekä determinantti, joista Leibniz tunnetaan—tästä otsikko. Tieteellisistä kontribuutioista maininnan ansaitsevat tensorien määritelmä indeksoituina perheinä sekä ulkotulon yleistys tällaisille tensoreille. Luvuissa 1 ja 3 kehitetään analyysiä käyttäen tangenssirelaation käsitettä. Luvussa 2 määritellään tensorit indeksoituina perheinä, mikä tekee niistä kantariippumattomia. Ulkotulon määritelmä nojaa originaaleihin kombinatorisiin tuloksiin. Luvussa 4 määritellään determinantti ulkotulon avulla käyttäen transvektioita ja dilataatioita, jotka korvaavat matriisien rivi- ja sarakeoperaatiot. Luontevia jatkokehityksen ja harjoitustehtävien aiheita voisivat olla heterogeeniset tensorit, ulkoderivaatta sekä differentiaaligeometrian ja -topologian alkeet.
  • Kuikka, Antti (2013)
    Kalliojärvi, Ania and Erkkilä gold deposits are located in the Pirkanmaa migmatite belt in southern Finland. Nearest city is Tampere, approximately 15 km northeast of the deposits. The native gold occurs with sulphide dissemination in quartz veins and shear zones in hydrothermally altered mica schist, gneiss and granite-pegmatite intrusions and black schist. Black schist is common in Erkkilä deposit. Tourmaline pegmatite is common in Ania deposit. Gold grades are in the range of 0,1-26,7 g/t. The peak of metamorphism has reached upper amphibolite fasies in Erkkilä deposit (K-feldspar + sillimanite isograd). In Kalliojärvi the metamorphic index mineral is staurolite, which indicates middle amphibolite facies conditions. In Ania the metamorphism has progressed to the lower amphibolite facies stability field of garnet. These metamorphic associations indicate pressure of 8 kb to 6 kb and temperature of 790 to 525 °C. The hydrothermal alteration is strong in the mineralized zones, demonstrated by silicification and potassium metasomatism, which altered feldspars to sericite and biotite to chlorite. Plagioclase has also altered to albite and potassium feldspar, epidote and calcite and ilmenite has altered to rutile. In the mineralisation process fluids have enriched in the same ore forming elements in all three deposits. These elements include Fe, Cu, Ni, Co, Au, Ag, Hg, Pb, Bi, Sb, Te, S, Se, As. The major ore minerals are arsenopyrite, löllingite, pyrrhotite, pyrite and chalcopyrite. Other ore minerals are native bismuth, gold, bismuth tellurides, maldonite and oxide minerals. The major ore forming process has been open space filling. The ore minerals have crystallized as disseminations in intergranular spaces between silicates and carbonates, in quartz- and epidote-clinozoisite veins and walls of the fluid channels. The arsenopyrite geothermometry shows crystallization temperature from 438 to 609 °C with pyrrhotite and löllingite. The sulfur activity (logS2) has been from -3,70 to -8,30. Fluids transported gold predominantly as a reduced sulphur complex and a thioarsenide complex. The first generation native gold is intergrown and as inclusions in arsenopyrite and in grain borders of composite löllingite and arsenopyrite grains. The second generation native gold occurs as open space fillings in the gangue fractures, intergranular spaces between silicates and as inclusion in potassium feldspar and sulphides, Bi-, Sb- Te-minerals and metallic bismuth. The main crystallization of native gold and tellurides took place in the epizonal temperature range from 150 to 300 °C. According to the mineral liberation analyses in Ania the grain size of gold, 86,10 wt. %, is from 32 to 106 µm, in Erkkilä 98,22 wt. % is from 32 to 355 µm and in Kalliojärvi 76,02 wt. % is from 32 to 106 µm. In heavy mineral concentrates gold occurs as free grains and also intergrown with arsenopyrite and bismuth. A small portion of gold is as inclusions in other minerals in arsenopyrite and silicates. The mineralisation and crystallization of the ore minerals is epigenetic i.e. it was active after the last metamorphic event in shear zones of the host rock. All three gold deposits have crystallized after a complex, accretionary to collisional orogenic evolution of Svekofennian. The ore mineral crystallization occured in the hypozonal-epizonal temperature range from 600 to 150 °C.
  • Juvonen, Ville (2023)
    Lentoaika-rekyylispektrometria (TOF-ERDA) on materiaalin tutkimusmenetelmä, minkä avulla kyetään selvittämään näytteen alkuainepitoisuudet syvyyden funktiona. Menetelmässä on huomattu esiintyvän systemaattista poikkeamaa teoriasta. Poikkeaman syy on toistaiseksi epäselvä. Tutkielmassa tutkittiin poikkeaman syytä sekä suuruutta. Tutkimiseen käytettiin Helsingin yliopiston kiihdytinlaboratorion 5 MV EPG-10-II-tandemkiihdyttimeen liitettyä TOF-ERDA-laitteistoa. Laitteistolla tutkittiin ilmiön esiintymistä eri hiukkasilla, eri energioilla ja eri näytteillä. Kokeiden tuloksia verrattiin teorian ehdottamiin tuloksiin. Suurimmat poikkeamat kokeiden ja teorian välillä esiintyi pienienergisillä ja keveillä ammusioneilla, kun tutkittiin raskasalkuaineista näytettä. Kokeissa käytettyjen hiukkasten sirontaa TOF-ERDA-laitteiston lentoaikaporteista selvitettiin simuloinneilla. Simulointityökaluna työssä käytettiin SRIM-ohjelmistoa. Simulointien pohjalta hiukkasille laskettiin korjauskertoimet. Korjauskertoimen suuruuden huomattiin olevan riippuvainen hiukkasen energiasta sekä järjestysluvusta. Korjauskertoimista luotiin malli, jonka avulla kyetään arvioimaan ja korjaamaan kokeissa tapahtuvaa sirontaa lentoaikaporteista. Myös varjostumisen vaikutusta tuloksiin tutkittiin. Varjostumista tutkittiin jo olemassa olevan Andersenin mallin avulla. Andersenin mallin mukaan varjostumisen vaikutus tuloksiin on hyvin vähäistä sekä ilmiötä pienentävää, ei ilmiötä selittävää. Huomioitavaa kuitenkin on mallin soveltumattomuus kyseisiin vuorovaikutuksiin, täten varjostumisen vaikutusta ilmiöön ei voida kokonaan poissulkea. Tutkielman tulokset valottavat TOF-ERDA:n systemaattisen poikkeaman syitä. Lentoaikaporttisironnan vaikutus tuloksiin on merkittävä, selittäen noin puolet ilmiöstä. Tulosten pohjalta luotu malli on voimassa vain kyseiselle TOF-ERDA-laitteistolle, sillä sironnan suuruus on riippuvainen lentoaikaporttien materiaalista, paksuuksista sekä laitteiston geometriasta. Kuitenkin mille tahansa TOF-ERDA-laitteistolle on mahdollista luoda vastaava malli, noudattamalla tämän tutkielman prosesseja. Jäljelle jäävän selittämättömän poikkeaman huomattiin olevan myös riippuvainen energiasta sekä järjestysluvuista. Tämä viittaisi jäljelle jäävän poikkeaman aiheutuvan mahdollisesta monikertasironnasta näytteessä, ja tai varjostumisesta, jota Andersenin malli ei kykene huomioimaan.
  • Manninen, Emma-Liina (2015)
    The standardisation of airports has turned airports into similar non-places without history and connection to their surroundings. Recently the business environment of airports has become tougher, as airports are forced to compete for passengers in order to stay in business. The non-place character is a competition disadvantage for an airport, and therefore new means need to be developed in order to sustain competitiveness. A wide range of services as well as local culture are used to create a sense of place at an airport. The passengers are being offered new experiences and airports are even advertised with the experience orientation. The objective of this thesis is to find out whether the hard work on improving the image of the airports with spectacular projects has had an effect on how the passengers see the airport or does their view still represent the stereotypical image. The primary research question is how people perceive the airport today and are the perceptions in line with the definition of a non-place. I went through 195 airport reviews from ten European airports. Applying the discourse analysis I studied the different views of the airports that have arisen. The repeating patterns were divided into six themes according to their topics, in other words six different discourses were used to discuss airports. The customer reviews comprised the images of an airport as a physical building, a sensory environment, a hangout, a subject of a change, a social setting and as a visiting card of the area in question. A discourse analysis is based on a thought that the language is not a neutral describer of the reality, but rather the language builds the reality and is itself a product of culture. In other words, the themes that have arisen do not represent the absolute truth about the essence of an airport, but they rather provide different viewpoints on the concept of an airport. As I reviewed the discourses I found out that both the past and the present of the airports have their impacts on the images the passengers have about the airport in question. Though travelling is an essential part of the western lifestyle and the airports have become mundane, airports still represent modernity and terminals are important buildings. On the other hand, to this day the images of the past appear to have an impact on the experience of the flying passengers. According to the airport reviews, airports have both the characteristics of a place and a non-place. Still the passengers do not automatically see the standardisation of the airports as a negative feature, as the effectiveness and the similarity of the airports eases the travelling, and the widespread of the Internet helps keeping the important things always at hand. A part of the survey participants found that airports could standardise even further and concentrate on the needs of the passengers instead of local culture.
  • Jäppinen, Heikki (2015)
    The aviation industry has been through tough times in recent years. The industry has experienced several crises and it has also undergone a significant structural change. Still, despite all this, air transportation has grown enormously. The turbulences currently experienced by the air travel industry make it very hard to prognosticate, although there is a real need to anticipate the future. The aim of this thesis is to gain as broad an understanding of the future of the industry as possible, and to determine which global factors are in play. I want to outline four future scenarios that describe the future demands for Helsinki-Vantaa airport. The scenarios need to be based on a broad vision of the development of the factors affecting the industry. I have set three separate goals for my thesis: 1. Create as broad an analysis as possible of the current status of Helsinki-Vantaa Airport 2. At the same time piece together the global factors and foreseeable changes influencing the future of the world, Europe and Finland, and especially Helsinki-Vantaa. 3. Formulate coherent scenarios of what Helsinki-Vantaa Airport and its operational environment might look like in 2030. The most important factors in this study are issues dealing with energy, environment, economy, technology and values. Many special issues related to air transportation industry were also studied such as airline regulation, emissions, fuel predictions and rail transportation. Based on all these factors and their assumed future developments and combining this information with current state of the industry, scenarios were developed. The four different scenarios in this study are 'Continuous climb', 'Localizer established', 'Caution wake turbulence' and 'Spin'. I would like to show that the future is not set in stone, and that it is shaped by decisions and actions (based on relevant information). The scenarios in my thesis are not meant to be precise descriptions of the future in 2030. The future will most likely be a mix of the outlined scenarios, and only parts of them will actually materialize. My intention is not to make accurate predictions. It is to help to introduce new ways of thinking and give examples of how to utilize the outlined scenarios. My thesis would be ideally used in creating long term strategies. In addition, my thesis aims to offer an outsider's view on how Helsinki-Vantaa can be better integrated into the world and how its strengths can be further refined, while also giving advice on how Helsinki-Vantaa can avoid pitfalls and threats and remedy existing weaknesses.
  • Kentala, Joni (2016)
    Tutkin tässä työssä lentopaikkaennusteiden osuvuutta ja ennustettavuutta vuosien 2010 ja 2014 aikana, käyttäen hyväksi Ilmatieteen laitoksen verifiointimenetelmää. Lentopaikkaennusteilla on tärkeä rooli nykypäivän lentotoiminnassa. Ennusteiden verifioinnilla nähdään millä tasolla ennustettavuus on, ja se on myös hyvä työkalu ennusteiden kehittämisessä. Oma motivaationi tutkielmaan liittyy työhöni lentosäämeteorologina, ja myös omien ennustustaitojeni kehitykseen. Lentopaikkaennusteen kannalta hankalimmat ennustettavat sääsuureet ovat näkyvyys ja pilven korkeus, jotka ovat myös tutkimukseni keskipisteenä. Lentopaikkaennusteella ennustetaan näkyvyyttä, pilviryhmää (sisältää pilven korkeuden ja määrän), tuulta ja vallitsevaa säätä lentokentällä. Tutkimuksessa käytetty verifiointimenetelmä pisteyttää lentopaikkaennusteen sen perusteella, kuinka lähelle se osuu lentokentällä tehtyjä METAR-havaintoja. Verifiointituloksista nähtiin, että vallitsevaa säätä ja tuulioloja osataan ennustaa erinomaisesti jokaisena vuodenaikana. Pilviryhmän ja näkyvyyden osalta havaittiin hyvin samankaltainen vuodenaikaisvaihtelu. Kesäkuukausina kumpikin suure saavuttaa erinomaiset tulokset. Syksyllä kuitenkin verifiointitulokset alkavat laskea, ja talvikuukausina ennustettavuus on heikoimmillaan. Keväällä tulokset alkavat jälleen parantua, vastaten käänteisesti syksyn tilannetta. Samankaltaisesta käytöksestään huolimatta, pilviryhmän tulokset havaittiin hieman näkyvyyden tuloksia heikoimmiksi. Tähän syyksi paljastui näkyvyyden runsaampi määrä erinomaisia tuloksia, ja pilviryhmän runsaampi määrä keskinkertaisia tuloksia. Näkyvyyden ennustettavuus vaikuttaisi olevan suuremman osan ajasta hyvä, mutta karkeita ennustevirheitä tulee hieman enemmän kuin pilviryhmällä. Pilviryhmällä taas ennuste on useammin pitkiä aikoja hieman pielessä. Tutkimuksen perusteella ennustettavuutta voidaan parantaa mm. ennusteessa käytettävien muutosryhmien paremmalla hyödyntämisellä ja paikallisten olojen paremmalla tuntemuksella. Myöskään automaattisten havaintojen virheiden vaikutusta ennusteiden saamiin tuloksiin ei voida jättää huomiotta.
  • Sarpila, Ari (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2008)
    Tässä työssä selvitetään lentosääennusteiden käyttöä lennon suunnittelun ja toteutuksen perusteena. Tuodaan esille määräyksiä ja lentosäätietojen käyttöä kaikissa lennon vaiheissa. Perehdytään ennustettujen olosuhteiden ja ennusteiden laadun merkitykseen lentojen toteutuksessa. Selvitetään lentosääennusteisiin liittyviä lentoliikenteen kustannuksia. Työn aineistona käytettiin joulukuu 2006 - heinäkuu 2007 välisenä aikana eri pituisina jaksoina kerättyä 185 liikennelennon lennonsuunnittelumateriaalia ja 126 satunnaisella otoksella otettuja Suomen GAFOR-ennusteita. Liikennelennot toteutettiin Suomen ja Euroopan alueella. Työssä todennettiin METAR–lentopaikkasanoman avulla TAF-lentopaikka-, TREND-laskeutumis-, GAFOR-yleisilmailuennusteita. Yleisestä sääpalvelusta saatua materiaalia käsiteltiin EXCEL –taulukkolaskentaohjelmalla Lentosääennusteita käsiteltiin usean eri käyttäjäryhmän kannalta. Reittilentomittauksilla tutkittiin SIGMET–varoituspalvelun, SWC–merkitsevän sään ja yläilmakehän tuulen sekä lämpötilan ennusteita. TAF–pilvikorkeusennusteiden keskimääräinen hyvyysluku oli lähes sama pilvikorkeudesta riippumatta. Suhteellisen hyvissä olosuhteissa toimivat käyttäjät saivat ennusteista paljon hyötyä. Vaakanäkyvyysennusteiden keskimääräinen hyvyysluku oli suurempi hyvissä kuin huonoissa olosuhteissa. Huonojen olosuhteiden ennusteet olivat lentotoiminnalle enemmän harmillisia kuin hyödyllisiä. Ennustustyö olisi tarvinnut apuvälinettä. Tutkittiin TREND –ennusteiden ominaista osuvuutta. NOSIG –ennuste oli suhteellisen usein julkaistu vaikka sitä seurasi olosuhteen muutos. BECMG-ennuste toteutui pääsääntöisesti ennusteajan alkupuolella. Ajoittaisten olosuhdemuutosten aikana TEMPO-ennusteita julkaistiin hyvin, mutta ennusteen osuvuus vaihteli. Tässä muodossa jaettu ennustetieto ei palvele kovin hyvin päätöstilannetta, jossa on arvioitava polttoaineen riittävyys lennon loppuosalle. GAFOR-pintatuuliennusteet olivat onnistuneita kuten TAF-ennusteissa. Vaakanäkyvyys- ja pilvikorkeusolosuhteissa vertailupisteissä oli 10% havainnoista ennustettua huonompaa olosuhdetta, jos käytettiin vain GAFOR–ennusteen perusosaa lennonsuunnittelussa ja 6% havainnoista, jos käytettiin koko ennustetta. Ilma-aluksen päällikön on valvottava näkölento-olosuhteiden kehitystä lennon aikana ja varmistettava aina näkölento-olosuhteinen lentoreitti laskupaikalle. Lentosääennusteet ovat osa lentotoimintaa mahdollistavaa järjestelmää. Ennusteet hallitsevat vaihtelevasti olosuhteita ja luonnollisesti aiheuttavat ongelmallisia tilanteita. Käyttäjiä sitovat määräykset on luotu, jotta toiminta olisi turvallista. Laadukkaita ennusteita tarvitaan isoilla liikennepaikoilla lentoliikenteen kapasiteetin hallintaan. Pienillä lentopaikoilla laitevarustus ei vielä takaa lentotoimintaa kaikissa olosuhteissa. Näkölentotoimintaa harjoitetaan jatkuvasti sekä hyvissä että kohtalaisen huonoissa olosuhteissa.
  • Sirviö, Markus (2022)
    Diatoms, green algae, and cyanobacteria react fast to changing environmental conditions. Algae are important primary producers in stream ecosystems, thus changes in periphyton can influence the whole stream ecosystem. There have not been many studies where algae biomass variation has been explained with a large water chemistry data. Furthermore, there is lack of studies where metal concentrations in the water are near to natural concentration levels. In this master’s thesis I examine how environmental variables affect the changes in algae biomass. Furthermore, the aim of this study is to examine do diatoms, green algae and cyanobacteria have different responses to environmental variables. Competition between three algae biomass groups is also researched. In this study research points were classified to three land use types. The aim of the classification was to enable variation as much as possible in shading and water chemistry variables in the study area. Eventually 51 research points were selected. Algae biomass was measured with BenthoTorch. Total phosphorus, total nitrogen, anions, cations, solid matter, dissolved matter and dissolved metals were measured in laboratory. Total biomass’ and algae groups’ response shapes where analyzed with GAM. Furthermore, competition between different algae groups were studied with Spearman’s correlation. The average total algae biomass was 2.94 μg cm-2 in the study area and diatoms were the most dominant group. Surprisingly the amounts of light and total phosphorus were sufficient in the study area and had no significant effect on the total algae biomass variation. However, total nitrogen, calcium, zinc, iron, and nickel were significant environmental variables in total biomass model. Total nitrogen, calcium, zinc and nickel where significant environmental variables for explaining diatom biomass variation. Total phosphorus and nitrogen were significant in cyanobacteria’s model and only zinc was significant in green algae’s model. Green algae had a weak but a significant negative correlation with diatoms and cyanobacteria. Total algae biomass growth was notable restricted in study area. The average amount of biomass matched a biomass volume in an oligotrophic stream. There were enough of light and total phosphorous in the study area, thus they had no significant effect on algae biomass. At high total nitrogen concentration levels biomass growth was inhibited. In addition, iron and nickel had a significant negative effect on total biomass. Zinc was an important mineral for algae biomass growth, specially to diatoms and green algae. Strong competition on resources did not occur between the algae groups. Negative correlations between algae groups where most likely explained with different responses to iron, nickel, and calcium. There is need for more studies to explain algae biomass in different natural stream ecosystems. For understanding better how different concentrations change algae biomass, more variation on environmental variables is needed. Furthermore, water hydrology and grazing should be measured. In addition, research on how water chemistry changes affect species composition in periphyton is recommended.
  • Moisio, Mikko (2021)
    Semantic textual similarity (STS), the procedure of determining how similar pieces of text are in terms of their meaning, is an important problem in the rapidly evolving field of natural language processing (NLP). STS accelerates major information retrieval applications dealing with natural language text, such as web search engines. For computational efficiency reasons, text pieces are often encoded into semantically meaningful real-valued vectors, sentence embeddings, that can be compared with similarity metrics. Majority of recent NLP research has focused on a small set of largest Indo-European languages and Chinese. Although much of the research is machine learning oriented and is thus often applicable across languages, languages with lesser speaker population, such as Finnish, often lack annotated data required to train, or even evaluate, complex models. BERT, a language representation framework building on transfer learning, is one of the recent quantum leaps in NLP research. BERT-type models take advantage of unsupervised pre-training reducing annotated data demands for supervised tasks. Furthermore, a BERT modification called Sentence-BERT enables us to extend and train BERT-type models to derive semantically meaningful sentence embeddings. However, yet the annotated data demands for conventional training of a Sentence-BERT is relatively low, often such data is unavailable for low-resourced languages. Multilingual knowledge distillation has been shown to be a working strategy for extending mono- lingual Sentence-BERT models to new languages. This technique allows transferring and merging desired properties of two language models, and, instead of annotated data, consumes bilingual parallel samples. In this thesis we study using knowledge distillation to transfer STS properties learnt from English into a model pre-trained on Finnish while bypassing the lack of annotated Finnish data. Further, we experiment distillation with different types of data, English-Finnish bilingual, English monolingual and random pseudo samples, to observe which properties of training data are really necessary. We acquire a bilingual English-Finnish test dataset by translating an existing annotated English dataset and use this set to evaluate the fit of our resulting models. We evaluate the performance of the models in different tasks, English, Finnish and English-Finnish cross-lingual STS, to observe how well the properties being transferred are captured, and how well the models retain the desired properties they already have. We find that knowledge distillation is indeed a feasible approach for obtaining a relatively high quality Sentence-BERT for Finnish. Surprisingly, in all setups large portion of desired properties are transferred to the Finnish model, and, training with English-Finnish bilingual data yields best Finnish sentence embedding model we are aware of.
  • Mustonen, Tytti (2020)
    Tässä tutkielmassa käsitellään magneettikuvausavusteisessa rintabiopsiassa havaittuja kolmea kuva-artefaktia; biopsia-alueen heikkoa intensiteettiä, merkkitikun pään katoamista kuva-alueelta, sekä rasvasaturaation epäonnistumista merkkitikun ollessa kuva-alueella. Merkkitikun pään on havaittu katoavan kuvausalueelta ja huonontavan rasvasaturaatiota kuvantamisvaiheessa, jossa merkkitikku mallintaa biopsianeulan sisäänmenokohtaa. Biopsia-alueen signaalikatoa on havaittu sekä biopsian jälkeisissä rasvasaturoiduissa, että rasvasaturoimattomissa T1-painotteisissa kenttäkaikukuvissa. Merkkitikun huono näkyvyys kuva-alueella, rasvasaturaation epäonnistuminen, ja biopsia-alueen intensiteetti kato vaikeuttavat näytteenottoa ja johtavat pahimmassa tilanteessa väärään diagnoosiin. Biopsia-alueelle injektoidun paikallispuudutteen vaikutusta alueen intensiteettiin ei ole aiemmin tutkittu. Paikallispuudutteena käytetään useimmiten kahta erilaista lidokaiinivalmistetta: Lidokaiini 10 mg/ml ja Lidokaiini 10 mg/ml c. adrenalin. Lidokaiinipuudutteiden vaikutusta kuvakontrastiin tutkittiin mittaamalla puudutteiden relaksaatioajat. Merkkitikun katoamista tutkittiin asettamalla gadoliniumtäytteinen merkkitikku testikappaleen lähelle, ja kuvaten testikappaletta rasvasaturoidulla 3D-T1-painotteisella kenttäkaikusekvenssillä. Merkkitikku nähtiin kuvissa kuitenkin hyvin selkeästi, eikä merkkitikun huomattu aiheuttavan muutosta rasvasaturaatioon. Magneettikentän tasauksen ja siten myös rasvasaturaation tulisi onnistua, vaikka merkkitikku on kuva-alueella. Merkkitikkumittauksesta selvisi, että rasvasaturoidussa T1-painotteisessa kenttäkaikukuvassa kummankin puudutteen intensiteetti on suurempi tai yhtä suuri rasvakudoksen kanssa. Adrenaliinia sisältävän lidokaiinipuudutteen T2-ajaksi saatiin noin 2058 ± 20 ms, ja lidokaiinipuudutteen T2-ajaksi saatiin noin 1030 ± 5 ms 3,0 T magneettikentässä. Lidokaiinipuudutteen T1-ajaksi saatiin noin 2749 ± 13 ms 3,0 T magneettikentässä, ja noin 2588 ± 87 ms 1,5 T magneettikentässä. Adrenaliinilidokaiinipuudutteen T1-ajaksi saatiin 2923 ± 12 ms 3,0 T magneettikentässä, ja noin 2670 ± 90 ms 1,5 T magneettikentässä. Lidokaiinin ja adrenaliinilidokaiinin T1-ajat olivat yli 15-kertaisia parafiiniöljyn T1-aikaan verrattuna. Tällöin kumpikin puudute näkyy tummana rasvakudokseen verrattuna rasvasaturoimattomissa T1painotteisessa kuvassa. Lidokaiinipuudutteen T2*-ajaksi mitattiin noin 536 ± 15 ms ja adrenaliinia sisältävän lidokaiinipuudutteen T2*-ajaksi noin 766 ± 29 ms 1,5 T magneettikentässä. Puudutteiden T2*-ajat ovat selvästi rasvakudoksen ja rintarauhaskudoksen tyypillisiä T2-aikoja suurempia. Tällöin puudutteiden tulisi näkyä rasvakudosta ja rintarauhaskudosta kirkkaampana T2*painotteisissa kuvissa. Saadut tulokset selittävät biopsia-alueen signaalikadon rasvasaturoimattomissa T1-painotteisissa kuvissa, mutta rasvasaturoitujen kuvien signaalikato jää epäselväksi.
  • Lindström, Joona Aarne (2016)
    Tavoitteena tässä työssä on tutkia separoituvan Hilbertin avaruuden operaattoreiden jälkeä ja determinanttia. Lähdemme liikkeelle kuitenkin kompaktien operaattoreiden tarkastelulla ja johdamme kompaktien operaattoreiden perusominaisuudet ensimmäisessä luvussa. Tarkastelemme lyhyesti myös analyyttisiä vektoriarvoisia funktioita, sillä näiden avulla on kätevää todistaa analyyttinen Fredholm-alternatiivi, jota puolestaan käytämme kompaktin operaattorin spektriin liittyvien tulosten todistuksissa. Osoitamme myös, että kompaktilla operaattorilla on Hilbert-Schmidt-esitys sekä määrittelemme kompakteille operaattoreille singulaariarvot sekä singulaariarvojonon. Toisessa luvussa tarkastelemme tarkemmin kompaktin operaattorin singulaariarvoja. Singulaariarvojonojen avulla saamme määriteltyä Schatten-luokat, joista tämän työn kannalta tärkeimmät ovat trace-luokka ja Hilbert-Schmidt-luokka. Osoitamme, että Schatten-luokat ovat Banachin avaruuksia norminsa suhteen. Tämän työn tärkeimmät tulokset ovat kolmannessa luvussa. Määrittelemme trace-luokan operaattoreille ensin jäljen ja tämän jälkeen käyttäen Hilbertin avaruuden tensorituloja ja alternoivaa algebraa hyväksi, määrittelemme myös determinantin muotoa I + T oleville operaattoreille, missä T on trace-luokan operaattori. Osoitamme myös, että määrittelemillämme jäljellä ja determinantilla on useita samoja ominaisuuksia kuin äärellisulotteisilla vastineillaan. Luvun, ja samalla tämän työn, päätulos on Lidskiin lause, jonka mukaan trace-luokan operaattorin jälki on sen ominaisarvojen summa, kun ominaisarvojen kertaluku otetaan huomioon. Lidskiin lauseen todistuksessa käytämme hyödyksi kompleksianalyysiä. Osoitamme, että z\mapsto \det(I + zT) on kokonainen funktio kun T on trace-luokan operaattori. Kyseisen funktion nollakohdilla ja operaattorin T ominaisarvoilla on läheinen yhteys. Näin ollen analyyttisten funktioiden ominaisuuksia saadaan käytettyä tutkittaessa operaattorin T ominaisarvoja. Viimeisessä luvussa tarkastelemme rajoitettua tapausta, missä Hilbertin avaruutena on L^2(\mathbb{R}^n,m_n). Tällöin osoitamme, että Hilbert-Schmidt-operaattorit, samoin kuin trace-luokan operaattorit, ovat esitettävissä integraalioperaattoreina. Tärkeimpänä tuloksena osoitamme, että trace-luokan operaattorin jälki voidaan esittää integraalin avulla käyttäen hyväksi operaattorin integraaliesitystä.