Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by Title

Sort by: Order: Results:

  • Lobo, Hannah (2021)
    The lidar depolarisation ratio is used for aerosol categorisation as it is indicative of aerosol shape. Commonly, depolarisation ratio is measured in short term studies at short wavelengths such as 355 nm and 532 nm. The depolarisation ratio has a spectral dependency and so exploring values at longer wavelengths could be valuable for future studies. Here, aerosol depolarisation ratio at 1565 nm is measured across Finland’s ground based remote sensing network over a four year period. The Halo Photonics StreamLine Doppler lidars instruments were found to be stable over long time periods and cloud based calibration was used to correct for the bleed though. The depolarisation ratio of elevated aerosol layers was compared to boundary layer aerosol. A higher average depolarisation ratio was found for elevated aerosol with the exception of boreal forest sites in the summer months where values were similar. Elevated aerosols over Finland were found to originate mostly from the Arctic, Europe, Russia and North America using aerosol transport models. Four case studies were looked at in more detail: Saharan dust with a depolarisation ratio of 0.249 ± 0.018, pollen with a depolarisation ratio of 0.207 ± 0.013, anthropogenic pollution with a depolarisation ratio of 0.067 ± 0.009, and a mixed layer with a depolarisation ratio of 0.152 ± 0.019 thought to be pollen and smoke. Based on this study, Halo Doppler Lidar can be used to measure elevated aerosol at 1565 nm in the long term. Future studies could use 1565 nm depolarisation ratio alongside commonly used shorter wavelengths to aid aerosol categorisation.
  • Jebaraj, Immanuel Christopher (2017)
    Distinguishing the coronal magnetic field and its evolution can unlock key information on solar energetic eruptions such as the Coronal Mass Ejections (CMEs). CMEs are formed as magnetic flux ropes, i.e. magnetic field lines twisted about each other. They are the main drivers of space weather effects on Earth. Understanding the structure of the internal magnetic field of the CME would help determine the severity of the resulting geomagnetic storm. Predicting the onset and the orientation of the flux rope axis is a major focus of current space weather research. For this purpose, a numerical study on the kinematic emergence of a twisted flux rope into a coronal magnetic field is performed using the Magneto-frictional method (MFM). The MFM is an exciting prospect as it is sufficiently accurate and computationally inexpensive. The initiation of the eruption is through ideal Magnetohydrodynamic (MHD) kink instability. In this case, the kink instability occurs when the windings of the field lines about the flux rope axis exceeds a critical value. This thesis presents the set-up of the Fan & Gibson flux rope with different configurations. This was in hopes of studying the slow energization of the coronal field arcade with the emergence of a current carrying flux rope. The results of the simulations presented here show that the several key factors such as the height at which the flux rope is stopped and its twist play a major role in the dynamics of the flux rope in making it kink unstable. One of the main motivations was to use the results to discuss the performance of the MFM in comparison to MHD and how capable it is in capturing ideal MHD phenomenon. The simulations are also used to investigate the formation of sigmoidal current layer often seen before the onset of eruption. In the results presented here, the sigmoidal ’S’ shaped current layer is formed as the flux rope becomes kink unstable. This sigmoidal current layer is analysed for different configurations of the flux rope. These results have suggested that accurate dynamic modelling of the coronal magnetic field is essential for successful space weather prediction purposes.
  • Väkevä, Sakari (2019)
    The reflection seismic surveying method is useful when conducting mineral exploration in the crystalline bedrock because of its good depth extent and resolution. However, the traditional experiments with active sources are expensive and difficult to carry out, especially in remote areas or in conservation areas where mineral exploration is limited due to environmental reasons. Recently, a number of theoretical advances have proven that passive soundings utilizing ambient seismic noise can provide new opportunities for seismic imaging and contribute to data generation for reflection seismic surveys, without the need for explosive or vibratory sources. One of the most promising new methods is seismic interferometry (SI), where the impulse response between two receivers is reconstructed by correlating their signals with each other. COGITO-MIN is a joint project between the University of Helsinki, the Geological Survey of Finland, Polish Academy of Sciences, and industrial partners with the aim of investigating and developing new cost-effective seismic exploration methods in the crystalline bedrock. Within the framework of the project, a passive seismic experiment was carried out in which 45 three-component geophones were deployed for a month in the vicinity of the polymetallic Kylylahti Mine in Polvijärvi, northern Karelia, where the mining operator is the Swedish metal company Boliden. The original purpose of these geophones was to collect data suitable for detecting underground cavities related to underground nuclear explosions. The institute that collected the data was CTBTO (Comprehensive Test Ban Treaty Organization) whose task is to monitor the treaty in the pre-ratification stage. The purpose of this Master's thesis was to develop an SI workflow for the three-component data and to investigate the method's performance in an area where local geology is known after nearly 40 years of exploration and consequent mining operations. The specific scientific objectives of the thesis are (1) to demonstrate the usefulness of collecting three-component data in conjunction with or instead of single-component data, (2) to assess the noise-based SI methods used in previous studies and to improve their stability in the crystalline bedrock, and (3) to investigate the possibilities of SI from an operational perspective. Seismic velocities obtained through laboratory measurements were merged with geological and density models of the target area provided by Boliden. The resulting velocity and density grids were then used as the basis for waveform modelling, and the results from SI were validated against them. The starting point for SI was the noise-driven approach where 'each sample matters'. The interferometric workflow is built on the Seismic Unix suite together with self-written algorithms that are based on theoretical evaluations. SI is followed by an imaging workflow, which provides the basis for the reflectivity profiles. The thesis work focuses on five components of the Green's tensor and the vertical, radial and transverse component of the impulse response. With the horizontal components, one can access the S-wave patterns in addition to the P-waves. As a specialty, the so-called sign bit normalization (SBN) method was also tested. The technique involves destroying much of the amplitude information of the original seismograms by only retaining the sign bit of each sample. According to the results outlined in this thesis, SBN can make it easier to image the weak reflectors of the subsurface. This type of seismic interferometry seems particularly suitable for the early stage of mineral exploration, where the explorer does not yet fully understand the target they are studying. The most important advantage of seismic interferometry, however, is its cost effectiveness, and its potential for reducing risks for the environment.
  • Westlin, Emilia (2022)
    The aim of this thesis was to 1) give an exposition of how topological data analysis (TDA) can be used to look for patterns in periodic data, 2) apply it to financial data and 3) visually explore how a topological analysis of credit data using landscape distances compared to looking directly at the change in credit data in the context of stock market crashes. TDA applies algebraic topology to data. It models data sets as various-dimensional surfaces, or manifolds, and studies their structure to find patterns of interconnectedness. It is a powerful tool for studying large, complex, multi-dimensional and noisy data sets. It is often able to capture subtle patterns in such data sets much better than other methods. It is known that stock market crashes are preceded by periods of credit expansion, but we have no reliable indicator of an imminent crash. Chapter 2 covers the algebraic topological theory needed. Key concepts are simplicial complexes, homology groups and persistent homology. The central theorem is the Nerve Theorem, which establishes an equivalence between the union of a collection of convex sets and the nerve of the collection. Chapter 3 describes the method of time delay embedding to pre-process periodic data. A Vietoris-Rips filtration was applied to sliding windows of credit data. From this persistence diagrams and their corresponding persistence landscapes were obtained. The normalised persistence landscape norms (L1) were plotted to visually explore how well TDA captured the connection between credit expansion and stock market crashes. It was compared to the discrete first derivative of the credit data. Visual inspection of the graphs suggested TDA to be as good, and possibly slightly better, at predicting stock market crashes from bank credit data, than looking at the discrete first derivative directly. No obvious new indicator of an imminent crash was found, however. To unlock the true potential of TDA in analysing large, multivariate data sets, further studies could look to triangulate a better indicator of stock market crashes by combining the credit data with other economic, social and political data. It would also be useful to establish a less subjective, more transparent method for choosing the thresholds used as crash indicators, and to quantify the predictions made by different indicators to better compare them with each other.
  • Joutsenvirta, Timo (2020)
    Ohjelmiston hyvä käytettävyys varmistaa sen, että henkilöt, joille ohjelmisto on suunnattu osaavat sitä käyttää, ja että ohjelmiston käyttö on sekä tehokasta että miellyttävää. Käytettävyyden merkitys on kasvanut, kun ohjelmistojen käyttäjiksi on tullut tietotekniikan ammattilaisten lisäksi kuluttajia. Kilpailukyvyn varmistamiseksi ohjelmistojen tulee olla käytettävän lisäksi myös saavutettavia ja niiden kokonaiskäyttökokemuksen on oltava hyvä. Saavutettavuus on myös lainmukainen vaatimus ohjelmistoille. Käytettävyyden testaaminen on perinteisesti käsityötä, jota suorittaa koulutettu käytettävyysasiantuntija tai käyttäjätutkija. Suuri osa huomiosta keskittyy käyttöliittymään, jonka kautta käyttäjä on vuorovaikutuksessa ohjelmiston kanssa. Käytettävyys on kontekstisidonnaista, joten osa testaamisesta tulee aina vaatimaan ihmisen analysointia. Osa testaamisesta voidaan kuitenkin automatisoida, ja näin vapauttaa tutkijan kapasiteettia sellaisiin osa-alueisiin, jotka vaativat kontekstin ja käyttäjän toiminnan ymmärtämistä ja tulkitsemista. Lisäksi tutkija pystyy keskittymään käytettävyysongelmia korjaavien muutosehdotusten kehittämiseen. Automaattisesti voidaan testata erityisesti käyttöliittymän yhdenmukaisuutta, käyttöliittymäelementtien havaittavuutta ja kerätä automaattisesti käyttäjän raportoimia ongelmakohtia. Tässä työssä pyritään vastaamaan kysymykseen, missä määrin käytettävyyden varmistamista pystytään automatisoimaan, ja esitellään tämän tiedon pohjalta rakennettu käytettävyyden automaattisen testaamisen työkalu, Usability Spy, jonka tarkoituksena on automatisoida käytettävyystesteihin osallistuvilta henkilöiltä koottavien käytettävyystestiaineiston keräystä. Työkalun toimintaympäristönä on DOS käyttöjärjestelmän päällä toimiva Microsoft Windows tai Microsoft Windows for Workgroups ikkunointiympäristön versio 3.1 tai uudempi.
  • Koivula, Kalle-Matti (2023)
    In this thesis we try to find the measurement accuracy of our dronebound wind measurement setup and if the quality of the measurements is high enough for operational usage. The thesis goes over the most important theoretical concepts concerning effects of wind in the boundary layer. In the thesis we analyze wind data gathered by a drone-bound anemometer, and introduce a direct method of measuring wind with a UAV. The data includes stationary wind data gathered at height of 30 metres, as well as vertical wind profiles to 500 metres above ground level. The data is compared to reference data from a 30 metre wind mast and automatic radiosoundings. The measurements were conducted in Jokioinen, Finland between the 2nd of September 2022 and 10th of October 2022. Total of 20 measurement flights were conducted, consisting of 14 stationary wind measurements and six wind profile measurements. We found out the stationary wind measurement quality to be comparable with earlier studies. The vertical wind profile measurements were found to be hard to analyze, as the reference measurement was not as compatible as we had hoped for. The difference between automatic radiosoundings and our profile measurements was distinctly greater than the difference between the stationary drone and wind mast measurements. Lastly some optimization and improvements to the measurement arrangement are discussed. The application of these improvements and modifications will be left as future endeavour for some willing individual.
  • Hyttinen, Miika (2022)
    An industrial classification system is a set of classes meant to describe different areas of business. Finnish companies are required to declare one main industrial class from TOL 2008 industrial classification system. However, the TOL 2008 system is designed by the Finnish authorities and does not serve the versatile business needs of the private sector. The problem was discovered in Alma Talent Oy, the commissioner of the thesis. This thesis follows the design science approach to create new industrial classifications. To find out what is the problem with TOL 2008 indus- trial classifications, qualitative interviews with customers were carried out. Interviews revealed several needs for new industrial classifications. According to the customer interviews conducted, classifications should be 1) more detailed, 2) simpler, 3) updated regularly, 4) multi-class and 5) able to correct wrongly assigned TOL classes. To create new industrial classifications, un- supervised natural language processing techniques (clustering) were tested on Finnish natural language data sets extracted from company websites. The largest data set contained websites of 805 Finnish companies. The experiment revealed that the interactive clustering method was able to find meaningful clusters for 62%-76% of samples, depending on the clustering method used. Finally, the found clusters were evaluated based on the requirements set by customer interviews. The number of classes extracted from the data set was significantly lower than the number of distinct TOL 2008 classes in the data set. Results indicate that the industrial classification system created with clustering would contain significantly fewer classes compared to TOL 2008 industrial classifications. Also, the system could be updated regularly and it could be able to correct wrongly assigned TOL classes. Therefore, interactive clustering was able to satisfy three of the five requirements found in customer interviews.
  • Roberts, Taylor (2024)
    The continuous application of generative AI is increasingly employed to enhance both creative and knowledge-centric processes. With the release of OpenAI’s GPT models in 2022, generative AI utilisation has surged, facilitating the optimisation of these processes to a greater extent than before. This research has been conducted for PwC Finland and presents a solution that leverages generative AI and RAG methods to aid consultants in data retrieval and analyses. This work follows a design science methodology, whereby, an incremental and iterative process is followed to produce an IT artifact. The artifact is in the form of a Proof of Concept (POC) instantiation: a Microsoft Word Add-in that links to a backend process employing a RAG framework, generative AI, and contemporary software architecture. This research has found that utilising RAG methods with generative AI alone is not enough to produce specific analyses within the tax and legal context. With an accuracy of only 62.5%, its important to utilise metadata filtering, pre-prompting and knowledge graphs to enhance contextual understanding.
  • Salminen, Teemu (2019)
    The use of virtual reality technology in the field of city planning has grown during the recent decades, because virtual reality provides a highly informative and immersive experience of an urban area in contrast to traditionally used 2-dimensional material, such as imagery and animations. This makes communication and decision making between the stakeholders of a city planning project much more efficient and enables participating the public to the process, which is very desirable in city planning projects. The virtual reality technology has evolved dramatically during the past few years. Devices such as head-mounted displays, spatial controllers and CAVE installations, and developing environments, such as game engines and 3D modeling studios have become more available for consumers and developers. Therefore, the opportunities for virtual reality technology requires revisiting. The goal of this study is to find software development opportunities for city planning projects using virtual reality technologies and realize those opportunities by implementing a model solution for use cases that show the most potential for development. The model solution is a high-level modeling tool, which can be used for fast drafting and modeling of city-scale plans, and provides appealing visualization for presentation purposes. This allows architects to make changes to the city plan immediately as they are receiving feedback from the decision makers and other stakeholders of a city planning project. This makes the decision making much faster, as the modifications can be made during the meeting, instead of re-scheduling another meeting to see the changes to the plan. The model solution also allows viewing the plan in a highly immersive virtual reality environment, with devices such as head-mounted displays. The development of this software is executed following well known agile methodologies used in commercial software development projects and is extended with a literature review and an analysis of the functionality of the model solution. The literature review charts the existing applications and studies of virtual reality in city planning so that opportunities for further development can be found. From these opportunities, the use cases showing the most potential are chosen and refined to a concept of an application. This concept is then refined to concrete designs and implemented in iterations, producing a final solution. The final solution is then analyzed in a test setup, including 8 participants, who are given city planning tasks, and answers a survey afterward, affirming that the model solution is a useful tool for future city planning projects.
  • Li, Yang (2024)
    In motorsports, especially in car races, communication among the cars, pit crews, and the audience must meet diverse requirements. The racing cars and their drivers communicate extensively with pit crews, who monitor the vehicles to ensure proper mechanical status and driver safety with high-reliability communications. At the same time, broadcasters receive footage from the track to distribute it to the audience worldwide. The current 5G networks allow the creation of private networks, which can be a decent tool to serve motorsport events. Consequently, the devices on the private network can be isolated from the network traffic from the spectators. In this thesis, we plan to quantify and analyze the measurement of using the private and public LTE networks for a racing scenario. The work will involve simulating races in a network simula- tor. Specifically, mobility traces collected from an actual racing event will be used to simulate mobile nodes as the racing drivers. The fixed location applies to a pit crew, a broadcaster, and an audience, with the base station as an access point. The configuration of base station decides on the type of LTE network in the simulations, we measure each network model and evaluate the performance based on selected metrics. Finally, we discuss the discovery based on our simluations and the potential reasons behind them.
  • Ahmad, Ayesha (2019)
    Public transport networks are a subset of vehicular networks with some important distinctions; the actors in the network include buses and bus-stops, they are predictable and they provide reliable physical coverage of an area. The Public Transport Network of a city can also be interpreted as an opportunistic network where nodes are bus-stops and communication between these nodes occurs when a bus travels between two bus-stops. How will a data communication network perform when built upon the opportunistic network formed by the public transport system of a city? In this thesis we explore this question basing our analysis on Helsinki Region’s public bus transport system as a real example. We explore the performance of a public transport network when used for communication of data using both simulation of the network and graph analysis. The key performance factors studied are the data delivery ratio and data delivery time. Additional issues considered are the kind of applications such a system is suited for, the important characteristics governing the reliability and efficacy of such a data communications system, and the design guidelines for building such an application. The results demonstrate that data transfer applications can be built over a city’s Public Transport Network.
  • Koskinen, Marko (2021)
    Modern software systems often produce vast amounts of software usage data. Previous work, however, has indicated that such data is often left unutilized. This leaves a gap for methods and practices that put the data to use. The objective of this thesis is to determine and test concrete methods for utilizing software usage data and to learn what use cases and benefits can be achieved via such methods. The study consists of two interconnected parts. Firstly, a semi-structured literature review is conducted to identify methods and use cases for software usage data. Secondly, a subset of the identified methods is experimented with by conducting a case study to determine how developers and managers experience the methods. We found that there exists a wide range of methods for utilizing software usage data. Via these methods, a wide range of software development-related use cases can be fulfilled. However, in practice, apart from debugging purposes, software usage data is largely left unutilized. Furthermore, developers and managers share a positive attitude towards employing methods of utilizing software usage data. In conclusion, software usage data has a lot of potential. Besides, developers and managers are interested in putting software usage data utilization methods to use. Furthermore, the information available via these methods is difficult to replace. In other words, methods for utilizing software usage data can provide irreplaceable information that is relevant and useful for both managers and developers. Therefore, practitioners should consider introducing methods for utilizing software usage data in their development practices.
  • Blomqvist, Mandy (2022)
    Syftet med denna utvecklingsforskning är att skapa ett utvecklingsobjekt som utvecklar undervisningen inom mätning och enhetsomvandling, eftersom tidigare forskningsresultat tyder på att det finns brister i elevers kunnande inom mätning och enhetsomvandling. Syftet med utvecklingsobjektet är att eleverna bildar förmågor som de kan anpassa i sina egna liv. Som utvecklingsobjekt skapar jag uppgifter som påminner om vardagliga problemlösningssituationer, för att hämta skolmatematiken närmare vardagliga situationer. Detta hjälper eleverna att förstå att lärandet i skolan inte enbart sker för lärandets skull. Utvecklingsforskningen utförs i två cykler. I arbetets första cykel skapar jag utvecklingsobjektet på basen av den teoretiska problemanalysen som jag gör. I arbetets andra cykel gör jag en fallstudie för att få mera kunskap om hur utvecklingsobjektet fungerar under verkliga förhållanden. På basen av denna fallstudie utvecklar jag ytterligare utvecklingsobjektet. I fallstudien deltog två högstadieelever. Jag fick tillstånd av elevernas föräldrar att eleverna deltar i utvecklingsprocessen av utvecklingsobjektet. Resultaten för fallstudien tyder på ett fungerande utvecklingsobjekt. Arbetsmetoden var obekant för eleverna. Den mest centrala observationen utöver att eleverna ansåg uppgifterna vara nyttiga, var att eleverna tyckte om att diskutera matematik, även om de ansåg det vara svårt. Utvecklingsobjektet löser iallafall delvis problematiken av en traditionell, rutinbaserad undervisning genom att få eleverna att arbeta i en aktiv upptäckande roll. Dessutom uppmuntrar utvecklingsobjektet eleverna och läraren till att anamma en diskussionskultur under matematiklektionerna. I helheten är resultaten av denna utvecklingsforskning betydande för utvecklingen av realistisk matematikundervisning.
  • Kiviluoto, Arto (2020)
    Uudelleenkäytöllä ohjelmistokehityksessä tarkoitetaan aiemmin kehitettyjen artefaktien hyödyntämistä uudessa kohteessa. Artefaktit voivat olla käsitteellisiä, kuten suunnittelupäätökset, tai konkreettisia, kuten ohjelmakoodi, ja niitä voidaan hyödyntää ohjelmistotuotantoprosessin eri vaiheissa. Uudelleenkäyttöä tutkittiin jo vuosikymmeniä sitten, ennen internetin yleistymistä, mutta sen ei koettu olevan muodostunut tavanomaiseksi käytännöksi. Tutkielman tavoitteena on koostaa ennen internetaikakautta tunnistettuja uudelleenkäytön muotoja ja niille asetettuja odotuksia, sekä arvioida niiden toteutumista nykypäivän uudelleenkäytössä. Tässä tutkielmassa lähestytään uudelleenkäytön muotoja ja niihin kohdistettuja odotuksia sekä niiden toteutumista kirjallisuuskatsauksena. Tutkielma on kaksiosainen ja osien jakajana toimii internetin yleistymisen ajankohta, joka tässä tutkielmassa on ajoitettu vuosituhannen vaihteeseen. Nykypäivän uudelleenkäytön menetelmien tarkastelun lähtökohtana toimi Charles W. Kruegerin käyttämä nelikko: abstrahointi, valinta, erikoistaminen ja integrointi. Tutkielmasta ilmenee, että uudelleenkäytön asema ohjelmistokehityksessä on vakiintunut. Monet nykypäivän uudelleenkäytön menetelmät vastaavat hyvin historiassa esitettyjä menetelmiä ja odotukset uudelleenkäytön menestymisestä näyttävät toteutuneen. Vaikka uudelleenkäyttö on hyväksytty vakiintuneeksi käytännöksi, ei sen hyödyistä näytä olevan luotettavaa näyttöä vahvistamaan kaikkia sille asetettuja odotuksia. Tutkielmassa havaitaan myös, että internetin myötä ohjelmistokehitys on kokenut suuria muutoksia, joiden vaikutuksia menneinä vuosikymmeninä tuskin voitiin ennakoida.
  • Otaru, Sofia (2017)
    Positroniemissiotomografia eli PET-kuvantaminen perustuu positroni-elektroniannihilaatiotapahtumassa syntyvien gammakvanttien detektointiin. PET-kuvantamisessa käytetään positroniemittereitä kuten hiili-11, typpi-13, happi-15, fluori-18, gallium-68 sekä jodi124. 18F-Isotoopin ainutlaatuisuus ja sen laaja käyttö PET-kuvantamisessa selittyy sen pitkällä 109,8 minuutin puoliintumisajalla sekä beetahiukkasen lyhyellä kantamalla väliaineessa. PET-kuvantamisessa kuvan laatuun vaikuttaa radiolääkeaineen kohdespesifisyys sekä leimatun lääkeaineen poistuminen kohteen ulkoisesta kudoksesta nopeasti. Esikohdennettu kaksivaiheinen bio-ortogonaalinen kemia mahdollistaa tarkan kohdespesifisyyden, radiolääkeaineen nopean poistumisen verenkierrosta ja kuvantamiskohteen ympäröivästä kudoksesta sekä terveen kudoksen minimoidun säteilyaltistuksen. Tetratsiinin sekä trans-syklo-okteenin välinen käänteisesti elektronivajaa Diels-Alder reaktio (IEDDA) on yksi nopeimmista tunnetuista bio-ortogonaalisista reaktioista. Erikoistyön tarkoituksena oli syntetisoida sekä 18F-leimata IEDDA-reaktioon soveltuva uusi lipofiilinen tetratsiini-radiolääkeaine. Lääkeaine puhdistettiin nestekromatografisilla menetelmillä (HPLC, FPLC) ja sen rakenne varmistettiin 1D- ja 2D-NMR-spektroskopialla sekä massaspektrometrialla (ESI-TOF MS). Erikoistyössä määritettiin 18F-leimatun radiolääkeaineen lipofiilisyyttä kuvaava LogD-arvo, jonka perusteella arvioitiin lääkeaineen soveltuvuutta aivojen esikohdennettuun PETkuvantamiseen. Aivokuvantamiseen soveltuvalla lääkeaineella ideaalinen LogD-arvo sijoittuu välille 2,0–3,5, jolloin lääkeaineen voidaan olettaa ylittävän veri-aivoesteen. 18F-Leimattavan lääkeaineen esiasteen eli prekursorin synteesissä amidisidoksen muodostusreaktio sekä tert-butyylioksikarbamaatti-suojaryhmän poisto onnistuivat 65 % saannoilla. Oksiimin muodostus onnistui hyvällä 90 % saannolla. Prekursorin emäksisissä olosuhteissa tapahtuvan 18F-suoraleimauksen saannoksi saatiin 21 %. Työssä kehitettiin kaksivaiheinen leimausmenetelmä prekursorin pH-herkän oksiimisidoksen vuoksi. Kaksivaiheisessa menetelmässä 18F-leimausta seurasi oksiimin muodostusreaktio. Näin vältyttiin molekyylin hajoamiselta. Kaksivaiheisella leimauksella 18F-fluoraussaantoksi saatiin 78 %:a. Radiolääkeaineen puoliintumisaikakorjatuksi saannoksi tuotetusta kokonaisaktiivisuudesta määritettiin 16 %. Tavoitteena oli saavuttaa vähintään 10 % saanto. Radiolääkeaineelle määritettiin LogD-arvo fysiologisessa pH:ssa 7,4 Shake flask-uuttomenetelmällä. LogD-arvoksi määritettiin 2,1 ± 0,13. LogD-arvon perusteella lääkeaineella on optimaalinen lipofiilisyys veriaivoesteen läpäisylle. Radiolääkeaineen soveltuvuus aivokuvantamiseen tulee vielä selvittää stabilisuuskokeilla, määrittämällä lääkeaineen biodistribuutio sekä suorittamalla aivojen in vivo PET-kuvantaminen.
  • Hakala, Simo (2018)
    Ilmakehän aerosolihiukkasilla on merkittäviä vaikutuksia ilmastoon ja ihmisten terveyteen. Suuri osa näistä aerosolihiukkasista on peräisin uusien pienhiukkasten muodostumistapahtumista eli NPF-tapahtumista (New Particle Formation). NPF-tapahtumissa ilmakehän höyryistä muodostuu pienhiukkasia, jotka alkavat kasvaa. Tämä tutkielma käsittelee läntisessä Saudi-Arabiassa tehdyissä aerosolimittauksissa havaittuja NPF-tapahtumia. Tarkoituksena on määrittää NPF-tapahtumien yleisyys sekä näiden voimakkuutta ja siten ilmasto- ja terveysvaikutuksellista potentiaalia kuvaavat muodostumis- ja kasvunopeudet. Lisäksi erityisen mielenkiinnon kohteena ovat nk. kutistumistapahtumat, joissa NPF-tapahtumissa syntyneiden hiukkasten moodin keskimääräisen halkaisijan havaitaan pienenevän kasvuvaiheen jälkeen. NPF-tapahtumien tunnistaminen sekä muodostumis- ja kasvunopeuksien määrittäminen perustuivat aerosolihiukkasten lukumääräkokojakaumamittausten analysointiin. Muodostumisnopeudet laskettiin vuomenetelmällä ja kasvunopeudet seuraamalla automaattisesta moodisovitusalgoritmista saatujen halkaisijoiden aikakehitystä. NPF-tapahtumien tunnistaminen perustui lukumääräkokojakaumien visuaaliseen tarkasteluun. NPF-tapahtumien piirteisiin vaikuttavia tekijöitä selvitettiin lähinnä käytettävissä olevien meteorologisten suureiden mittausten sekä dispersiomallilla laskettujen ilmamassojen lähdealueiden avulla. Lukumääräkokojakaumamittausten analysointi osoitti, että NPF-tapahtumat ovat tarkastellulla mittauspaikalla hyvin yleisiä ja voimakkaita. NPF-päivien esiintymistiheys oli 73 % luokitelluista päivistä (454 kpl) ja keskimääräiset muodostumis- ja kasvunopeudet olivat 13,5 cm-3 s-1 (J7nm) ja 8,2 nm h-1 (GR7-12nm). 76 %:ssa NPF-tapahtumista havaittiin lisäksi kutistumistapahtuma. Kutistumistapahtumien esiintymistiheys sekä muodostumis- ja kasvunopeudet olivat hieman suurempia kesäkuukausina, kun taas NPF-tapahtumien yleisyydellä ei ollut selkeää vuodenaikaisvaihtelua. NPF-tapahtumat ja niiden voimakkuus ovat mitä todennäköisimmin riippuvaisia rannikon puolelta kulkeutuvista antropogeenisistä päästöistä. Tähän viittaa erityisesti se, että pienhiukkasten muodostumista ei havaittu lainkaan sisämaasta peräisin olevissa ilmamassoissa. Kutistumistapahtumat eivät vaikuttaneet olevan yhteydessä hiukkasten haihtumista lisääviin tekijöihin (lämpötilan kasvu, ilmamassojen sekoittuminen). Ilmamassojen lähdealueiden ja antropogeenisten päästöjen horisontaalisen jakauman tarkastelu viittasivat puolestaan näennäiseen kutistumisprosessiin. Tässä moodin halkaisijan pieneneminen aiheutuisi haihtumisen sijaan heikommista NPF-tapahtumista peräisin olevien, ja siten vähemmän kasvaneiden hiukkasten havaitsemisesta.
  • Pasanen, Sara (2019)
    Tämän pro gradu -tutkielman kirjallinen osa käy läpi uusia psykoaktiivisia aineita ja niiden tunnistukseen käytettäviä laitteistoja ja menetelmiä. Tutkielman kokeellisen osan suoritus alkoi 56 uuden psykoaktiivisen aineen tunnistamisella ja viemisellä laboratorion tietokantaan vertailuaineiden avulla. Tutkimuksen toinen osa keskittyi m/zCloud –tietokannan tutkimiseen uusien psykoaktiivisten aineiden tunnistuksessa.
  • Lavas, Ilkka (2017)
    Asiakasdataa on tallennettu pitkään, mutta vasta digitalisaation myötä sen käsittelyä voidaan tehokkaasti automatisoida. Asiakasdataa hyödyntämällä voidaan luoda uutta liiketoimintaa ymmärtämällä nykyisten ja tulevien asiakkaiden toimintaa ja tarpeita. Digitalisointi mahdollistaa läpinäkyvän ja mitattavan tavan automatisoida markkinointia. Uusi ohjelmoitava markkinoinnin maailma tarjoaa uusia reaaliaikaisia asiakasviestinnän keinoja. Asiakasdataa tallennetaan yrityksissä jatkuvasti lukuisiin eri järjestelmiin. Tallentamiseen liittyy monia haasteita, kuten markkinoivien organisaatioiden toimintakulttuuri ja muutosvastarinta. Asiakasdatan käsittelyä vaikeuttaa mm. organisaation eri osastojen omien tietojärjestelmien tavat käsitellä asiakasdataa. Keskitettyjen tietovarastojen puuttumisesta johtuva datan siiloutuminen aiheuttaa myös datan integriteettiin liittyviä haasteita. Tässä tutkielmassa selvitetään mitä mahdollisuuksia ja haasteita uudet teknologiat tuovat asiakasdatan keräämiseen, organisoitiin ja käsittelyyn. Dataohjatun markkinoinnin nykytilaa Suomessa selvitetään laajan tapaustutkimuksen avulla, haastattelemalla 20:a liike-elämässä aktiivisesti työskentelevää henkilöä. Tuloksena raportoidaan nykytilanne sekä asiakasdatan pirstaleisuutta ja epäyhteneväisyyttä luovat rakenteelliset ongelmat. Dataohjattu päätöksenteko on tärkeä kilpailutekijä ja sen merkityksen korostuessa analysointiosaamista tarvitaan entistä enemmän. Näiden haasteiden ymmärtäminen ja niihin varautuminen on entistä tärkeämpää jo suunniteltaessa asiakasdataa kerääviä ja käsitteleviä tietojärjestelmiä. Dataohjatun markkinoinnin yleistyminen muokkaa tietojärjestelmien lisäksi myös osaamistarpeita ja yrityskulttuureita.
  • Virtanen, Elina (2018)
    Tutkielmassa tarkastellaan vantaalaisissa uusissa kerrostaloissa asuvien muuttoaikeita sekä niitä tekijöitä, jotka lisäävät aikeita muuttaa. Tarkasteltavat tekijät liittyvät asukkaiden omaan sosioekonomiseen taustaan, nykyisen asunnon ominaisuuksiin, asunto- ja kaupunkirakenteellisiin ominaisuuksiin sekä turvallisuuskokemuksiin. Erityistä huomiota kiinnitetään asunto- ja kaupunkirakenteen osalta pienten asuntojen vaikutukseen muuttoaikeiden selittäjänä. Aikaisemmissa tutkimuksissa on tarkasteltu hyvin vähän asuinalueen fyysisen rakenteen merkitystä asumistyytyväisyyteen ja muuttohalukkuuteen. Lisäksi tutkielmassa käsitellään yleistä asumistyytyväisyyttä ja muuttopäätöksiä. Tutkielman aineisto koostuu asukaskyselyaineistosta. Asukaskysely lähetettiin vantaalaisiin uusiin, keskimäärin pieniin kerrostaloasuntoihin. Kysely lähetettiin postitse 1971 henkilölle, ja vastausprosentiksi muodostui 42. Kyselyaineisto rikastettiin rekisteripohjaisella tiedolla, jotta saatiin selvitettyä vastaajien asunto- ja kaupunkirakenteellisia tekijöitä. Menetelmät ovat tilastollisia: aineistoa analysoitiin jakaumien, keskiarvojen ja ristiintaulukoinnin avulla. Lisäksi muuttoaikeisiin vaikuttavia tekijöitä tutkittiin eksploratiivisen faktorianalyysin sekä logistisen regressioanalyysin avulla. Asukkaat ovat keskimäärin tyytyväisiä asumiseensa, mutta erinäisistä syistä yli puolet eivät näe asuvansa samassa asunnossa enää viiden vuoden päästä. Muuttoaikeita lisäävät monenlaiset tekijät. Asukkaan sosioekonomiset tekijät lisäävät muuttoaikeita voimakkaimmin, mutta myös yksiöiden määrällä sekä turvallisuuskokemuksilla on olennainen merkitys muuttoalttiuteen. Monella vastaajalla muuttoaikeet johtuvat nykyisen asunnon sopimattomuudesta tulevaisuudessa, asumisuralla etenemisestä sekä toisaalta myös asuinympäristöstä johtuvista tekijöistä. Tarkasteltavista tekijöistä etenkin yksiöiden runsas määrä asuinrakennuksessa sekä turvattomuuskokemukset lisäsivät tutkimuksessa vastaajien muuttoaikeita. Tutkimustulokset osoittavat asukkaiden muuttavan monista eri syistä. Tietyt piirteet asuinympäristössä lisäävät aikeita muuttaa – todennäköisesti pienten asuntojen osalta kyse onkin asukasrakenteesta. Yksiöissä saattaa asua runsaasti etappimuuttajia, jotka suunnittelevat jo muuttoa muualle. He eivät siten juurru tai kiinnity sosiaalisesti asuinalueelleen, minkä seurauksena heitä ei kiinnosta osallistua asuinympäristön toimintaan tai huolehtimiseen. Välinpitämättömyys aiheuttaa myös muissa asukkaissa viihtymättömyyttä ja turvattomuutta, minkä seurauksena yleinen muuttoalttius kasvaa. Tutkielma osoittaa, että yksipuolinen asunto- ja kaupunkirakenne lisää turvattomuutta, viihtymättömyyttä ja muuttoaikeita. Asuinalueiden tulisi olla asuntorakenteeltaan ja siten myös asukasrakenteeltaan monipuolisia. Monipuolinen asuntokanta mahdollistaa asukkaiden jäämisen samalle asuinalueelle, vaikka asuntoa haluttaisiinkin vaihtaa. Asuinalueiden suunnitteluun viihtyvyyden kannalta on syytä panostaa, ettei alueista muodostu vain etappimuuttoalueita, joista edetään heti tilanteen salliessa muualle.
  • Rautiainen, Leo (2022)
    Tämän gradun keskeisin asia on uusiutumisteoria. Uusiutumisteoria on todennäköisyysteoriaa, ja siinä tarkastellaan tilanteita niin sanotusti takaperin. Eli voidaan vaikka simuloida tiettyä tilannetta erittäin monta kertaa, ja laskea tuloksen perusteella vastaus. Esimerkki tästä on tilanne, jossa tarkastellaan, kuinka monta kertaa olisi heitettävä noppaa, jotta saadaan sama lukuarvo viisi kertaa peräkkäin. Tällainen on haastavampaa laskea klassisen todennäköisyyslaskennan metodein, koska otannan kokoa ei ole tiedossa. Tutkielman tarkoituksena on, että tutkielman lukija joko saisi ymmärrystä siitä, mitä uusiutumisteoria on, tai hänen tietämyksensä syvenisi. Tämä on toteutettu niin, että tutkielman alussa on pyritty selittämään matemaattisia asioita, joita käytetään myöhemmin tutkielmassa, jotta tutkielma olisi luettavissa mahdollisimman monelle eri matematiikan osaamistasoiselle ihmiselle. Todistusten seuraaminen ihmiselle, joka on matematiikan opinnoissaan vasta alkuvaiheessa voi olla erittäin haastavaa, mutta esimerkit on pyritty kirjoittamaan niin, että ne olisivat kenelle vain luettavissa. Gradussa on kaksi matemaattisesti haastavampaa kappaletta. Toisessa johdetaan keskeinen uusiutumislause ja todistetaan se, ja toisessa johdetaan uusiutumislause epätäydelliseksi uusiutumislauseeksi, ja osoitetaan, kuinka uusiutumisteoria on mukana vakuutusmatematiikan riskiteoriassa. Keskeisen uusiutumislauseen todistus tehdään niin, että ensin johdetaan tämä lause yksinkertaisemmista uusiutumislauseista ja määritellään uusiutumisfunktio. Tämän jälkeen määritellään Blackwellin uusiutumislause ja todistetaan se. Tämän jälkeen voidaan osoittaa, että lauseet ovat matemaattisesti ekvivalentteja sopivin oletuksin, ja kun se on osoitettu, on keskeinen uusiutumislause todistettu. Työn lopussa käsitellään esimerkkejä. Yksi näistä on koneiden hajoamiseen liittyvä uusiutumisteoreettinen tehtävä, ja sen lisäksi esitetään kaksi uusiutumisteoriaan liittyvää paradoksia. Vaikka näissäkin voi olla haastaviakin todistuksen osia, erityisesti molempien paradoksien todistuksissa, on jokainen esimerkki muotoiltu jokaiselle luettavaan muotoon. Nämä kaksi kappaletta ovat ne kappaleet, jotka kannattaa lukea, jos ei ole ikinä kuullut uusiutumisteoriasta. Yllä mainitussa esimerkissä on tilanne, jossa on tehdas ja tehtaassa on kone, jossa on yksi kriittinen osa, joka hajoaa helposti. Jos osa huolletaan ennen hajoamista, maksaa se 200 euroa. Jos taas osa ehtii hajota ennen huoltoa ja se pitää korjata, hajottaa se samalla konetta, ja kustannukseksi tulee tällöin 2600. Koneen osan hajoaminen on tasajakautunutta kahden vuoden ajanjaksolle. Tällöin uusiutumisteorian avulla on mahdollista ratkaista, mikä on optimaalisin huoltoväli koneelle.