Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by department "Fysiikan osasto"

Sort by: Order: Results:

  • Agaian, David (2020)
    Particle Induced X-ray Emission (PIXE) is a nondestructive Ion Beam Analysis (IBA) technique that can be used for identifying elements in a sample. In PIXE, the radiation emitted by electron state changes is measured, after which emissions are recorded as spectral peaks. Each element is then identified based on its unique spectral peak. PIXE analysis has been carried out using a 3 MeV proton beam generated with the aid of TAMIA 5 MV EGP-10-II tandem accelerator of the Department of Physics, University of Helsinki, at the Helsinki Accelerator Laboratory in Kumpula. The external PIXE measurement setup in the accelerator laboratory has been prepared to study nine coins from 18th to 20th centuries and from different countries (Russia, USSR, Romania, France, and Portugal). The coins have been irradiated in the external PIXE setup, in which x-rays have been then detected by an x-ray detector. Two different detectors have been employed in the measurements: a KETEK AXAS-D Silicon Drift Detector (SDD) for detecting x-rays of every coin, and a Canberra GUL0110 Ultra-Low Energy Germanium (Ultra-LEGe) detector for detecting x-rays of silver coins. After PIXE spectra have been obtained, PyMCA software has been used for the elemental analysis of the data. In the present study, various elements have been found from the measured PIXE spectra. In silver coins, the following 10 elements have been specified: Ag, Cu, As, Pb, Fe, Sb, Ni, Zn, Sn and Bi. In nickel plated steel coin observed elements are Fe, Ni, Co, and Cu. Copper-zinc-nickel alloy coins have been found to consist of Cu, Zn, Ni, Fe, and Mn. Copper-nickel alloy coins have been investigated to be made of Cu, Ni, Fe, and Mn. This study verifies that the external PIXE technique can be utilized as a practical tool to identify elements in metallurgical samples.
  • Romppainen, Jonna (2020)
    Surface diffusion in metals can be simulated with the atomistic kinetic Monte Carlo (KMC) method, where the evolution of a system is modeled by successive atomic jumps. The parametrisation of the method requires calculating the energy barriers of the different jumps that can occur in the system, which poses a limitation to its use. A promising solution to this are machine learning methods, such as artificial neural networks, which can be trained to predict barriers based on a set of pre-calculated ones. In this work, an existing neural network based parametrisation scheme is enhanced by expanding the atomic environment of the jump to include more atoms. A set of surface diffusion jumps was selected and their barriers were calculated with the nudged elastic band method. Artificial neural networks were then trained on the calculated barriers. Finally, KMC simulations of nanotip flattening were run using barriers which were predicted by the neural networks. The simulations were compared to the KMC results obtained with the existing scheme. The additional atoms in the jump environment caused significant changes to the barriers, which cannot be described by the existing model. The trained networks also showed a good prediction accuracy. However, the KMC results were in some cases more realistic or as realistic as the previous results, but often worse. The quality of the results also depended strongly on the selection of training barriers. We suggest that, for example, active learning methods can be used in the future to select the training data optimally.
  • Veteli, Peitsa (2020)
    Opetus- ja tutkimusmaailmojen välillä koetaan olevan rako, jota voidaan pitää osasyynä yleisesti havaittuun opiskelijoiden matalaan motivaatioon luonnontieteellisiä aloja kohtaan. Samassa yhteydessä esiin nousevat autenttisuuden ja relevanssin käsitteet, joilla voidaan kuvata eri tavoilla tapahtuvan toiminnan ”aitoutta” tai mielekkyyttä. Tässä työssä esitellään Fysiikan tutkimuslaitos HIP:in (Helsinki Institute of Physics) Avoin data opetuksessa -projektin myötä kehitettyjä merkityksellisen ohjelmoinnin työkaluja, joissa hyödynnetään muun muassa CERNissä toimivan CMS-kokeen (Compact Muon Solenoid) avoimia hiukkastutkimuksen aineistoja. Näiden materiaalien siirtymistä opettajakunnan avuksi tuetaan koulutuksilla, joista kerättyä palautetta analysoidaan tässä tutkielmassa laajemman tiedeopetuksen autenttisuuteen ja avoimen datan hyödyntämiseen liittyvän keskustelun yhteydessä. Avoimen datan hyödyntäminen ja opetuksellinen tutkiminen ovat hyvin nuoria aloja, joiden eturintamaan tämäkin työ asettuu. Aineistoa on kerätty sekä suomalaisilta (n = 64) että kansainvälisiltä (n = 12) toisen asteen opettajilta, minkä lisäksi vertailukohtana käytetään opiskelijatyöpajoista nousseita kommentteja (n = 62). Menetelmänä toimii temaattinen analyysi, jonka tulokset ovat vertailukelpoisia muuhun luonnontieteen opetuksen tutkimuskirjallisuuteen. Tutkimuskysymyksenä on: Miten autenttisuus esiintyy opettajien palautteessa hiukkasfysiikan avoimen datan opetuskäytön kursseilta ja kuinka se vertautuu tiedeopetuksen tutkimuskirjallisuuteen? Tuloksista havaitaan opettajien näkemysten asettuvan hyvin saman suuntaisesti kuin verrokkikirjallisuuden pohjalta olisi voinut olettaakin, yleisimpien autenttisuuden yhteyksien painottuessa tutkijoiden toimintaan verrattaviin työskentelytapoihin ja ”oikean maailman” haasteisiin. Palautteen lähes yksimielinen positiivisuus antaa vahvaa indikaatiota projektin tarjoamien mahdollisuuksien hyödyllisyydestä ja tukee alalla kaivattavien jatkotutkimusten kannattavuutta.
  • Lampsijärvi, Eetu (2020)
    The feasibility of quantitatively measuring ultrasound in air with a Schlieren arrangement has been demonstrated before, but previous work demonstrating calibration of the system combined with computation to yield the 3D pressure field does not exist. The present work demonstrates the feasibility of this both in theory and practice, and characterizes the setup used to gain the results. Elementary ray optical and Schlieren theory is exhibited to support the claims. Derivation of ray optical equations related to quantitative Schlieren measurements are shown step by step to help understand the basics. A numerical example based on the theoretical results is then displayed: Synthetic Schlieren images are computed for a theoretical ultrasonic field using direct numerical integration, then the ultrasonic field is recovered from the Synthetic Schlieren images using the inverse Abel transform. Accuracy of the inverse transform is evaluated in presence of synthetic noise. The Schlieren arrangement, including the optics, optomechanics, and electronics, to produce the results is explained along with the stroboscopic use of the light source to freeze ultrasound in the photographs. Postprocessing methods such as background subtraction and median and Gaussian filtering are used. The repeatability and uncertainty of the calibration is examined by performing repeated calibration while translating or rotating the calibration targets. The ultrasound fields emitted by three transducers (100 kHz, 175 kHz, and 300 kHz) when driven by 5 cycle sine bursts at 400 Vpp are measured at two different points in time. The measured 3D pressure fields measured for each transducer are shown along with a line profile near the acoustic axis. Pressure amplitudes range near 1 kPa, which is near the acoustic pressure, are seen. Nonlinearity is seen in the waveforms as expected for such high pressures. Noise estimates from the numerical example suggest that the pressure amplitudes have an uncertainty of 10% due to noise in the photographs. Calibration experiments suggest that additional uncertainty of about 2% per degree of freedom (Z, X, rotation) is to be expected unless especial care is taken. The worst-case uncertainty is estimated to be 18%. Limitations and advantages of the method are discussed. As Schlieren is a non-contacting method it is advantageous over microphone measurements, which may affect the field they are measuring. As every photograph measures the whole field, no scanning of the measurement device is required, such as with a microphone or with an LDV. Suggestions to improve the measurement setup are provided.
  • Monira, Shirajum (2020)
    Particle and nuclear physics experiments require state-of-the-art detector technologies in a pursuit to achieve high data collection efficiency, and thus ensuring reliable data recording from the particle collisions at the Large Hadron Collider (LHC) experiments of CERN. High demand for data to be used for precision analysis has led to the development of MicroPattern Gaseous Detector (MPGD) based structures: Gas Electron Multiplier (GEM) and MICROMEGAS (MM). A systematic study is conducted on charging-up behaviour in a two-stage amplification structure, consisting of a single GEM foil above a MM detector with 2D readout chamber. Charging-up effect arises in the detector system due to combined effects from polarization of dielectric surfaces and accumulation of charges on the dielectric surfaces of MM resistive strips under high external electric field. The internal fields created from charging-up of dielectric surfaces can lead to a change in the applied electric field and gain of the detector suffers. In this thesis, the instability of gain due to characteristic charging-up process in GEM and MM is observed for different event rates and humidity level in the detector fill gas (P-10 gas mixture). MM gain decreased with time due to charging-up of dielectric surfaces and an exponential drop of gain by ≈30% is detected in case of dry gas i.e. fill gas without moisture. By adding a small amount of water content into fill gas, the MM gain is observed to drop around 22-30%. Addition of 1320±280 ppmV water content into MM gas volume yielded a higher gain of about 10% compared to dry gas. In case of higher rate measurement, achieved by using GEM foil as a pre-amplification stage between drift and readout electrode, the gain saturates at 70%. For low rate measurement, the gain saturates at 68%. GEM gain is observed to increase slowly by 17% as the dielectric surfaces inside its holes charged-up gradually over time.
  • Arstila, Timo (2020)
    Super-resolution microscopy is a collection of methods to overcome the natural barrier of diffraction limit of resolving power that conventional optical microscopes have. A microsphere assisted microscopy (MAM) is a super-resolution method that was first demonstrated in 2011. It is based on the simple principle to utilize a dielectric microsphere as an external lens in optical microscope. Our objective was to achieve the super-resolution capability in non-contact 3D surface profilometry by integrating MAM-technology and Mirau-type of white light interferometry. The essential component in our proposed technology is a probe that contains the microsphere and its surrounding medium, the immersion film. In this thesis, I introduce the properties of microspheres and its surroundings that affect to the performance of MAM according to literature. I also present our choices for probe parameters and reveal experimental results on the performance of our 3D surface profilometer. In the image resolution, we achieved comparable results to other transverse resolution studies, but in longitudinal resolution we did not succeed to reach consistent results in non-contact mode with AFM. Despite many improvements in the fabrication process, we did not achieve repeatability in the characterization measurements for probes made with same parameters.
  • Peltonen, Jussi (2019)
    FINIX is a nuclear fission reactor fuel behaviour module developed at VTT Technical Research Centre of Finland since 2012. It has been simplified in comparison to the full-fledged fuel performance codes to improve its usability in coupled applications, by reducing the amount of required input information. While it has been designed to be coupled on a source-code level with other reactor core physics solvers, it can provide accurate results as a stand-alone solver as well. The corrosion that occurs on the interface between nuclear fuel rod cladding and reactor coolant is a limiting factor for the lifespan of a fuel rod. Of several corrosion phenomena, oxidation of the cladding has been studied widely. It is modelled in other fuel performance codes using semiempirical models based on several decades of experimental data. This work aims to implement cladding oxidation models in FINIX and validate them against reference data from experiments and the state-of-the-art fuel performance code FRAPCON-4.0. In addition to this, the models of cladding-coolant heat transfer and coolant conditions are updated alongside to improve the accuracy of the oxidation predictions in stand-alone simulations. The theory of the cladding oxidation, water coolant models and general structure of FINIX and reactor analysis will be studied and discussed. The results of the initially implemented cladding oxidation models contain large errors, which indicates that FINIX does not account for the axial temperature difference between the bottom and the top of the rod in the coolant. This was corrected with the updates to the coolant models, which calculate various properties of a water coolant based on International Association for the Properties of Water and Steam (IAWPS) industrial water correlations to solve the axial temperature increase in a bulk coolant. After these updates the predictions of cladding oxidation improved and the validity of the different oxidation models were further analyzed in the context of FINIX.
  • Ylönen, Veli-Matti (2020)
    Tutkielman tarkoituksena on kirjallisuuskatsauksen avulla kuvata tieto- ja viestintäteknologian hyödyntämistä yläkoulussa ja lukiossa. Työssä selvitettiin millainen ja millaisten IT-sovellusten käyttö on perusteltua fysiikan oppimisessa ja opetuksessa ja mitä erityistä hyötyä tai etua IT-sovellusten käytöstä on fysiikan opetuksessa ja oppimisessa. Tutkimusmenetelmäksi valikoitui systemoitu kirjallisuuskatsaus. Tutkimusaiheeseen tutustumisen jälkeen haettiin aiheeseen liittyvää kirjallisuutta Helsingin yliopiston kirjaston käytössä olevista tietokannoista ja Google Scholarista. Lopullinen tutkimusten määrä oli 17. Aineiston perustiedot taulukoitiin ja jaettiin tutkimusten tulosten ja muiden huomioiden perusteella ryhmiin. Kirjallisuuskatsauksen tulosten perusteella IT-sovellusten, tarkemmin simulaatioiden, virtuaalitodellisuuden ja mobiililaitteiden, käyttäminen on oppimisen ja opetuksen kannalta perusteltua yläkoulussa ja lukiossa. Oppimista tukee sovellusten ja opettajan tarjoama ohjaus ja tuki sovellusten käyttäjälle. Samoin sovellusten käyttäminen yhdessä perinteisten kokeellisten töiden kanssa osoittautui hyödylliseksi. IT-sovelluksien käytöllä oli positiivinen vaikutus asenteisiin ja motivaatioon. Ne myös mahdollistavat normaalisti vaikeasti toteutettavien, fyysisesti mahdottomien, vaarallisten tai kalliiden kokeiden toteuttamisen. Lisäksi IT-sovellukset toivat lisää mahdollisuuksia itseopiskeluun. Kuitenkin opettajan ohjaus ja tuki sovellusten käyttäjälle on tärkeää virhekäsitysten välttämiseksi.
  • Salokivi, Jouni (2019)
    The aim of this Master’s thesis is to study the local and remote effects of the Arctic sea ice decline on atmospheric circulation in the Northern Hemisphere in the Eurasian continent. The climate in the Arctic area has been getting warmer due to global warming and the Arctic Amplification enhancing its effect. This has caused a decline in the Arctic sea ice extent and thickness, and a lengthening of the melting season. Local effects of the sea ice decline have been the rise in surface air temperature, increase in sensible and latent heat fluxes from the ocean, increase of moisture in the troposphere and therewith increase in cloudiness and precipitation. This has also caused more turbulence and smaller stratification in the lower troposphere, and an increased boundary layer thickness. A warmer Arctic area and a consequent sea ice decline has decreased the meridional pressure field height gradient and thereby the westerly geostrophic wind in the upper troposphere. The jet stream trajectory has become more meridional and meandering, which resembles the negative phase of the NAO/AO index. This has advected in winter warm air to the Pole and cold air to the Eurasian continent. Blocking highs over the Atlantic and Siberia have further advected cold air to the continent with cold and snow-rich winters as a result. In China the effect has been a more stable lower troposphere with less cyclone activity in winter whereas in spring the sea ice decline has brought lower temperatures and a weakening of the East Asian Jet. In summer Europe has experienced higher precipitation and eastern Asia a strengthening of the Eastern Asia Summer Monsoon. Different studies have suggested different mechanisms for this. Effects in autumn have been mainly the same as in winter, with weather patterns similar to the negative phase of the NAO/AO index. As a conclusion, it was found in the study that the decline in Arctic sea ice has had quite expected, better understood local effects. The results on remote effects are still partly controversial and not as well comprehended. A decrease in the meridional pressure gradient seems to have effects in several seasons and geographical regions through changes in tropospheric cold/warm advection and in jet stream strength and trajectories. Longer and more accurate data series and more studies with enhanced models are needed in the future in order to get a better understanding of the mechanisms and to separate them from other sources of atmospheric variability.
  • Sirkiä, Mika (2020)
    Transparent displays are common. Electroluminescent displays are one example of a transparent display. This focuses on driving electronics for transparent electroluminescent segmented displays. The designed electronics is discussed and its performance is measured. A new driving method is presented. This method increases the luminance of the display and decreases its power consumption.
  • Uusikylä, Eetu (2020)
    Gammaspektrometria on menetelmä gammasäteilyn havaitsemiseen ja sen analysoimiseen. Menetelmää sovelletaan Säteilyturvakeskuksen (STUK) gammalaboratoriossa, jossa mitataan ympäristönäytteiden aktiivisuutta ja radionuklidikoostumusta. Mittaustulosten analysoinnissa tarvitaan tehokkuuskalibrointia, jossa määritetään mitattavan lähteen emittoimien fotonien ja rekisteröityjen pulssien välinen suhde. Työssä selvitettiin EFFTRAN -nimisen ohjelman soveltuvuutta osaksi gammaspektrometristen mittausten analyysiprosessia. EFFTRAN perustuu Efficiency Transfer –menetelmään (ET), jossa analysoitavan näytteen piikkitehokkuuskäyrä johdetaan kokeellisesti määritetystä standardilähteen piikkitehokkuuskäyrästä. EFFTRAN ottaa kalibrointisiirroissa huomioon näytteen alkuainekoostumuksen, mikä vaikuttaa fotonien piikkitehokkuuteen alle 100 keVin energioilla. Työn ensimmäinen tavoite oli osoittaa, että EFFTRANin avulla saadaan yhteneviä tuloksia nykyisten laskentamenetelmien kanssa. Sen jälkeen kalibrointisiirtojen avulla laskettuja aktiivisuuspitoisuuksia verrattiin tunnettuihin referenssilähteiden aktiivisuuspitoisuuksiin. Viimeisessä vaiheessa tarkasteltiin alkuainekoostumuksen vaikutusta gamma-analyysien tuloksiin. EFFTRANin kalibrointisiirtojen avulla saatiin pääosin oikeita tuloksia, joten niitä voitaisiin jatkossa käyttää gamma-analyyseissa kokeellisten tehokkuuskalibrointien rinnalla.
  • Friman, Milla (2019)
    Tutkielman aiheena on verrata luonnon sateen pisarakokojakaumaa ja putoamisnopeusjakaumaa Vaisalan sadelaboratorion sadesimulaattorin tuottaman sateen pisarajakaumiin. Tarkoituksena on saada tietoa Vaisalan sadesimulaattorin tuottaman sateen ja luonnonsateen eroista. Tämän tutkimuksen aineisto perustuu aikaisempiin pisaratutkimuksiin ja tämän tutkimuksen aikaisiin pisaramittauksiin ulkona ja sadelaboratoriossa. Luonnon sateen eri intensiteeteistä mitattiin terminaalinopeus- ja pisarakokojakaumaa disdrometrillä ja punnitsevalla sademittarilla. Sadelaboratorion mittaukset terminaalinopeus- ja pisarakokojakaumista tehtiin optisella anturilla. Optisella anturilla saatiin arviot pisarakoolle sekä pisaroiden terminaalinopeuden että pisaroiden aiheuttaman optisen anturin jännitesignaalin vaimenemisen voimakkuuden kautta. Lisäksi sadelaboratoriossa mitattiin keinotekoisen sateen intensiteettejä vaa’alla, minkä avulla pyrittiin määrittämään kaikkia synoptisia intensiteettiluokkia vastaavat kierrosnopeudet sadesimulaattorille. Sadelaboratorion sade vastaa osittain luonnon sadetta. Luonnon sateen pisarat kuten myös sadesimulaattorin pisarat tippuvat pääosin teoriaa vastaavalla terminaalinopeudellaan. Jotkin pisarat kuitenkin tippuvat vastaavaa pisarakokoansa suuremmalla terminaalinopeudella, mikä voi johtua optisen anturin mittausteknisistä virheistä ja suurempien pisaroiden hajoamisesta pienemmiksi pisaroiksi ennen niiden havainnointia mittalaitteella. Pisarakokojakauma luonnon sateessa vaihtelee yleensä alle 1 mm pisaroista 5-6 mm pisaroihin. Sadelaboratorion pienin pisara 1,77±0,12 mm on siis melko suuri. Sadelaboratoriossa päästään kuitenkin pisarakokojakauman toiseen ääripäähän paremmin, pisarakoon ollessa mittaustavasta riippuen 5,29±0,86 mm tai 5,43±0,79 mm. Tutkimuksessa määritettiin myös sadesimulaattorilaitteiston kierrosnopeusluvut, jotta sillä voidaan mallintaa synoptisia intensiteettiluokituksia eri pisarakooilla.
  • Österman, Juuso (2019)
    Modern high energy physics describes natural phenomena in terms of quantum field theories (QFTs). The relevant calculations in QFTs aim at the evaluation of physical quantities, which often leads to the application of perturbation theory. In non-thermal theories these quantities emerge from, for example, scattering amplitudes. In high-temperature theories thermodynamical quantities, such as pressure, arise from the free energy of the system. The actual computations are often performed with Feynman diagrams, which visually illustrate multi-dimensional momentum (or coordinate) space integrals. In essence, master integrals are integral structures (within these diagrams) that can not be reduced to more concise or simpler integral representations. They are crucial in performing perturbative corrections to any system described by (any) QFT, as the diagrammatic structures reduce to linear combinations of master integrals. Traditional zero-temperature QFT relates the corresponding master integrals to multi-loop vacuum diagrams, which leads in practice to the evaluation of $d$-dimensional regularized momentum integrals. Upon transitioning to thermal field theory (TFT), the corresponding master integrals become multi-loop sum-integrals. Both the thermal and non-thermal master integral structures are explored at length, using $\overline{MS}$-scheme (Modified Minimal Subtraction) in the calculations. Throughout this thesis, a self-consistent methodology is presented for the evaluation of both types of master integrals, while limiting the calculations to one- and two-loop diagrams. However, the methods are easily generalized to more complex systems. The physical background of master integrals is introduced through a derivation of Feynman rules and diagrams for $\phi^4$ scalar field theory. Afterwards, the traditional $d$-dimensional master integral structures are considered, up to general two-loop structures with massive propagators. The evaluation strategies involve e.g. the Feynman parametrization and the Mellin-Barnes transform. The application of these results is demonstrated through the evaluation of three different diagrams appearing in the two-loop effective potential of the dimensionally reduced variant of the Standard model. The relevant thermal one-loop integral structures are introduced through the high-temperature expansion of a massive one-loop sum-integral (with a single massive propagator). The thermal multi-loop computations are predominantly considered with a methodology that decomposes the integrals into finite and infinite elements. Specifically, we demonstrate the removal of both the ultraviolet and infrared (UV and IR) divergences, and evaluate the remaining finite integral using the Fourier transform from momentum space back to coordinate space. The strategies are applied to multiple non-trivial diagrammatic structures arising from the Standard model.
  • Ali Khan, Ishup (2020)
    Earlier, vast majority of the experiment were performed with PIXE exclusively, with protons as an impinging particle. Due to the concurrence of various phenomena in nuclear and atomic physics like the significant development of the theory of the inner-shell ionization in ion-atom collision, higher sensitivity due to heavy-ions, larger scattering cross-section and larger stopping cross-section HIXE turns out to be a useful technique. While cross-section of heavy-ion beam at energy few MeV and above have been measured and reported, experimental data for high-energy heavy ions against heavy targets are lack. In this study, X-ray production cross-section induced by iodine ions with energies from 15MeV to 45MeV, produced by 5MV tandem accelerator, have been measured for multiple compounds of thin targets of Ti, Cu, Zn, Ru, Nb, Ta, W and Au in a direct way. Simultaneous measurement of the X-ray data and ERDA data were taken with the help of the x-ray detector and ERDA detector placed at an angle of 1200 and 300 respectively. Measured cross-section was compared against the ECPSSR and ECPSSR-UA cross-section calculated by the program ISICS11. Experimental cross-section was found above both of the ECPSSR and ECPSSR-UA data. Thickness of the target from ERDA data were used for the direct calculation of the X-ray production cross-section for 15MeV iodine energy beam. Additionally, measured cross-section along with the ECPSSR data was compared against the average reduced velocity parameter.
  • Arffman, Pentti (2019)
    Dissimilar metal welds(DMW) in nuclear power plants have been identified to be prone to failure by cracking. Generally cracks grow straight, unless a weaker microstructure is adjacent. In DMWs cracks have propagated to the fusion line. Fracture toughness of weldments has been reported to sink in the same location. It has been shown that hardness can be used to predict strength of a homogeneous material. In this thesis, such model was applied to DMWs. On the other hand, fracture toughness and crack propagation was studied for both ductile and brittle specimens. Two DMWs were studied, MU1 and NI1. They shared the same SS base metal and Alloy 52 weld metal. Furthermore the LAS base metals were very similar: 18MND5 and SA508 for MU1 and NI1, respectively. NI1 specimens were studied in three different ageing conditions. Some of the data was reutilized from previous projects. Vickers hardness was measured over the LAS fusion line. To be able to utilize hardness measurements without knowledge of their distribution, the data was bootstrapped. The means of the bootstrapped medians provided estimates of the average hardness and its deviation. Three tensile specimens were tested from four different locations. Tensile results were compared to strength predictions from hardness. The VTT model developed for homogeneous materials predicted strength from hardness inadequately in its original form. However, once the parameters were varied, predictions agreed with measurements. Ductile specimens were made from both MU1 and NI1. Temperatures for testing were 300°C and 20°C for MU1 and NI1 respectively. Their fracture toughness was determined with JIc, which is defined in ASTM E1820. Crack path was studied with either cross-cutting or profilometry. In the case of profilometry, the specimens were profiled from three different locations and the mean of results was used. Brittle specimens were all from NI1. ASTM E1921 determines cleavage fracture toughness Jc. Test temperatures were between −80°C and −130°C. Crack path was studied with profilometry. Profiling location was at cleavage nucleation point. The point was determined with scanning electron microscope. The accuracy of profilometry itself was confirmed by comparing the results to specimen cross-cuts. Linear correlation between fracture toughnesses and crack jumps towards fusion line was established successfully for most datasets. Ageing of the specimens reduced the fracture toughness of brittle specimens, but not of ductile ones. Instead, ductile fracture toughness increased with test temperature.
  • Väänänen, Mika (2019)
    For millennia, phenomena of the magnetosphere have intrigued mankind. Studies of the geomagnetic field were first initiated to locate precious minerals, later on continued for purposes of navigation and in the modern times for scientific interest and protection of modern society. Strong changes in the interplanetary magnetic field and pulses of charged particles originating from the Sun pose serious risks to many cornerstones of our lifestyle, such as the power grid, telecommunication and space safety. Understanding the interaction between the interplanetary magnetic field, solar wind and the geomagnetic field is crucial in building protection systems for these critical technologies. Magnetometers are practically the only instrument to monitor changed in the magnetic environment and thus a key instrument in broadening this understanding. In this thesis I describe two projects: development of a digitization algorithm for old, analog magnetometer data and the design and building process of two small magnetometers: one for ground based measurements and one for space applications. The aim of the digitization project was to digitize a magnetic timeseries produced in 1970s and 1980s. The quality of the dataset is very high, but since the data is saved on photographic film as graphs, proper time series analysis is difficult. During the project, I used a custom-made film scanner and developed a MATLAB program to read out the measured values from the scanned films. The aim of the magnetometer building project was to show that it is possible to build science grade magnetometers from commercial-off-the-shelf (COTS) components, enabling magnetometric campaigns where state of the art instruments would be prohibitively expensive. One magnetometer was built based on the Honeywell HMC5883L sensor, controlled by a Raspberry Pi miniature computer. This magnetometer was placed at the Metsähovi Radio Observatory. Another magnetometer, the CubeMAG, was based on the Honeywell HMC2003 sensor and controlled by an STM32F100 microcontroller. This magnetometer will be one of the science payloads of the ESTCube-2 satellite. The magnetometer placed in Metsähovi showed promising results, recording one strong geomagnetic storm which was also recorded with observatory quality instruments at the Nurmijärvi geophysical observatory. The resolution of the HMC5883L was too low to record most interesting features of the storm, but was high enough to show that the Metsähovi observatory is a suitable place for a more sensitive magnetometer. As of writing this thesis, ESTCube-2 is in development and preparing for launch and scientific results from the CubeMAG are not available. Initial laboratory tests show promising results, with the significantly higher resolution of the HMC2003 compared to the HMC5883L being able to record very small changes in the surrounding magnetic field.
  • Kuusaari, Henri (2020)
    Laadukkaaseen argumentointiprosessiin sitoutuminen antaa opiskelijalle mahdollisuuden oppia sekä itse argumentoinnista että keskustelun kohteena olevan aihealueen sisällöstä (Chinn & Clark, 2013). Mikäli tällaisia kollaboratiiviseen argumentointiin perustuvia keskusteluja halutaan hyödyntää osana opetusta, tarvitaan työkaluja niiden analysointia ja kehittämistä varten. Tässä tutkielmassa selvitettiin, miten alun perin yhteiskunnallisten keskustelujen analysointiin kehitetty Rainbow-analyysikehys (Baker, Andriessen, Lund, van Amelsvoort & Quignard, 2007) soveltuu fysiikan opettajaopiskelijoiden käymän fysiikan sisältötietoon liittyvän keskustelun analysointiin ja esitettiin, millaisia piirteitä opiskelijoiden välisistä keskusteluista voidaan sen avulla tunnistaa. Lisäksi esitettiin määrällisiä tunnuslukuja tehdystä analyysistä. Rainbow-analyysin suorittamisen lisäksi tutkittiin analysoitujen keskustelujen oppositionaalisuusastetta ja eksplisiittisesti perusteltujen kommenttien määrää. Sekä oppositionaaliset että perustellut väitteet ovat kummatkin laadukkaan argumentoinnin tunnusmerkkejä (Rapanta, Garcia-Mila & Gilabert, 2013). Tutkielmassa analysoitiin yhteensä 12 kahden tunnin mittaista Moodle-verkkokeskustelua, joissa fysiikan aineenopettajaopiskelijat pohtivat yhdessä, kuinka tiettyihin kvanttifysiikan aiheisiin liittyvät sisältötiedot tulisi järjestää uudelleen aiheiden opettamista varten. Aineisto analysoitiin teorialähtöisen sisällönanalyysin (Elo & Kyngäs, 2008) keinoin. Analyysin alussa havaittiin, että Rainbow-analyysikehys ei sellaisenaan soveltunut tutkielman aineiston analysointiin, mutta siitä muokatun version avulla saatiin aineiston analyysiyksiköt jaettua seitsemään pääkategoriaan, jotka kuvaavat analyysiyksiköiden tehtäviä keskustelussa. Tämän jälkeen analysoitiin aineistolähtöisen sisällönanalyysin avulla, mikä oli kunkin analyysiyksikön tarkempi tehtävä keskustelussa. Lopulta muodostettiin tehtäviä vastaavat, seitsemälle pääkategorialle alisteiset 66 alakategoriaa ja kaikista kategorioista koostuva hierarkkinen kategoriarakenne. Määrällisessä analyysissa laskettiin kuhunkin kategoriaan sijoitettujen analyysiyksiköiden määrä. Havaittiin esimerkiksi, että sanamäärällä mitattuna peräti 88,4 % aineiston kaikesta vuorovaikutuksesta kuuluu neljään keskustelun tavoitteiden kannalta tärkeimpään, argumentointiin liittyvän vuorovaikutuksen kategoriaan. Aineiston neljän ylimmän kategorian analyysiyksiköistä 18,9 % on oppositionaalisia toista keskustelijaa kohtaan ja 31,8 % eksplisiittisesti perusteltuja. Tällaisten kommenttien osuutta keskusteluissa saattaisi olla mahdollista kasvattaa. Tutkielmassa on esitelty keinoja, joista voisi olla apua. Tutkielmassa tuotettiin Rainbow-analyysikehyksestä muokattu versio, joka sopii löyhästi strukturoidun, fysiikan sisältötietoon liittyvän keskustelun analysointiin. Tämä toteutettiin laatimalla analyysin aikana sitä ohjaavat säännöt, raportoimalla ne huolellisesti sekä määrittelemällä aineistosta syntyneiden kategorioiden avulla kukin Rainbow-pääkategoria uudelleen. Syntynyttä analyysikehystä tulee edelleen kehittää analysoimalla sen avulla lisää keskusteluja. Analyysikehyksessä on useita kategorioita, jotka saattaisivat toimia indikaattoreina oppimisen kannalta laadukkaasta keskustelusta. Lisätutkimuksia tarvittaisiin selvittämään, mitkä kategorioista voisivat olla erityisen hyödyllisiä tässä suhteessa.
  • Joensuu, Johanna (2020)
    Tiivistelmä – Referat – Abstract Ilmastonmuutos on monimutkainen ja monitieteinen ilmiö, johon liittyy lukematon määrä osittain huonosti tunnettuja vuorovaikutuksia ja takaisinkytkentöjä. Ilmiön ymmärtäminen vaatii huomattavan käsiteviidakon hallitsemista ainakin jollakin tasolla. Koulun merkitys oppijoiden maailmankuvan muokkaajana on keskeinen, mutta suomalaisia tutkimustuloksia koulutien aikana muodostuneista käsityksistä ilmastonmuutoksesta on vähän. Konstruktiivisen oppimiskäsityksen mukaan yksilöt kehittävät ymmärrystään aktiivisesti, olemassa olevien ajatusmalliensa pohjalle. Ihmisellä voi olla tietystä aiheesta samaan aikaan myös useita vaihtoehtoisia käsityksiä. ”Virheellisten” käsitysten erottaminen ”oikeista” ei siis ole yksiselitteistä. Opetuksen tuloksena voi joskus olla kahden perspektiivin tilanne, jossa uusi aines otetaan aikaisempien ideoiden rinnalle. Lähihistoriassa sekä luonnontieteiden tutkimus että opetus ovat olleet näkökulmaltaan reduktionistisia: ajatellaan, että monimutkaiset systeemit voidaan ymmärtää analysoimalla niiden yksinkertaisempia komponentteja. Tästä näkökulmasta maailman voi selittää lineaaristen syy-seuraussuhteiden avulla niin, että luonnosta tulee deterministinen ja ennustettava. Reduktionistinen ajattelu on johtanut huomattavaan tiedon lisääntymiseen, mutta globaalien, monimutkaisten ja kokonaisvaltaisten ongelmien, kuten ilmastonmuutoksen, tarkasteluun lähestymistapa ei riitä. Sen rinnalle tarvittaisiin systeemiajattelua, ajattelutapaa, jossa pyritään selittämään, ymmärtämään ja tulkitseman monimutkaisia ja dynaamisia systeemejä. Maapallon ilmasto muuttuu ja on muuttunut aina. Teollisen aikakauden alettua muutos on kuitenkin ollut ennennäkemättömän nopeaa. On epätodennäköistä, että mitkään ilmastoon vaikuttavista luonnollisista sykleistä selittäisivät havaittua trendiä. Fossiilisten polttoaineiden käytön lisääntyminen on kasvattanut ilmakehän kasvihuonekaasupitoisuutta. Tästä on seurannut ilmakehän ja sen seurauksena myös merien ja maa-alueiden lämpenemistä. Ilmastonmuutosta on käsitelty luonnontieteiden oppitunneilla jo vuosia. Suomalaisten lukion opetussuunnitelman perusteiden yleisissä tavoitteissa mainitaan tietoisuuden kehittäminen ihmisten toiminnan vaikutuksesta maailman tilaan, halu ja kyky toimia demokraattisessa yhteiskunnassa vastuullisesti sekä yhteisenä aihekokonaisuutena kestävä kehitys. Ilmastonmuutos mainitaan erikseen kuitenkin vain oppiainekohtaisissa opetussuunnitelman perusteissa, maantiedon kohdalla. Oppijoiden käsityksiä ilmastonmuutoksesta on tutkittu paljon eri puolilla maailmaa. Ajasta, paikasta ja kouluasteesta riippumatta esiin nousevat samat virhekäsitykset. Näistä yleisin on ns. otsoniaukkoteoria, johon liittyy usein ajatus siitä, että CO2 (tai yleisemmin kasvihuonekaasut) tuhoavat otsonikerrosta. Lisäksi CO2 rinnastui usein ilmansaasteisiin. Toinen virhekäsitysten kokonaisuus liittyy lyhyt- ja pitkäaaltoiseen säteilyyn, joiden erot eivät vaikuta olevan opiskelijoiden ajatusmalleissa minkäänlaisessa roolissa. Myös kasvihuonekaasujen jakaumasta ilmakehässä on usein havaittu vääriä käsityksiä; tyypillisesti niiden ajatellaan muodostavan kerroksen, joka vangitsee ja/tai heijastaa lämpöä. Keväällä 2017 fysiikan ylioppilaskokeessa oli ilmastonmuutokseen liittyvä jokeritehtävä, jonka c-kohdassa piti pohtia syitä siihen, että ilmakehän kohonnut CO2-pitoisuus muuttaa ilmastoa. Tämän työn tutkimusongelmana oli selvittää, millaisia käsityksiä kokelailla oli CO2:n roolista ilmastonmuutoksessa. Tutkimukseen poimittiin 19 lukion abiturienttien kaikki vastaukset. Tutkimusmenetelmänä käytettiin temaattista analyysiä. Tutkimuksessa havaittiin, että fysiikan ylioppilaskokelaiden ymmärrys ilmastonmuutoksen fysikaalisista perusteista on vaihtelevan tasoista. Virheellisistä käsityksistä yleisimpiä olivat muissakin tutkimuksissa havaitut ajatukset, että CO2 heijastaa sähkömagneettista säteilyä, muodostaa ilmakehään kerroksen tai rajapinnan ja tuhoaa otsonikerrosta. Saadut tulokset sopivat yhteen myös oppikirjojen puutteita käsittelevien tulosten ja toisaalta suomalaisten oppikirjojen esitystavan kanssa. Ilmastonmuutos ja saastuminen on tyypillisesti opiskeltu samassa yhteydessä, jolloin niihin liittyvät käsitteet ja mekanismit sekoittuvat helposti. Oppimateriaalin tapa kuvittaa kasvihuoneilmiötä näkyy selkeästi opiskelijoiden vastauksissa ja niihin liitetyissä piirroksissa. Luonnontieteiden opetuksen traditiot eivät myöskään todennäköisesti tue systemaattisen ajattelun kehitystä.
  • Setälä, Jakke (2020)
    Tämän työn tavoitteena on tutkia ihmisen laulamalla tuottamien vokaalien ominaisuuksia kouluissa saatavilla olevalla laitteistolla. Tarkoitus on havaita vokaalien erot niiden spektrejä tulkitsemalla ja mahdollistaa tämän tiedon sisällyttämistä koulujen fysiikan opetukseen. Työtä varten kerätään ääninäytteitä viidestä eri vokaalista molempia sukupuolia edustavilta vapaaehtoisilta kokelailta. Osa heistä on laulunopettajia, joilla on laaja kokemus ja osaaminen äänenkäytöstä. Osa on laulunopiskelijoita ja loput ovat maallikkoja, joilla on hyvin vähän tai ei ollenkaan kokemusta laulamisesta ja nk. oikeaoppisesta äänenkäytöstä. Tuloksista nähtiin, että laulettujen vokaalien erot ovat nähtävissä helpoiten M1 ja M2 (twang) mekanismeilla tuotetussa äänessä. Kuiskaamalla lausutut vokaalit erotettiin myös hyvin toisistaan. Havaittiin, että työ on toteutettavissa kouluissa välineistöstä riippumatta mobiililaitteiden tuomien mahdollisuuksien takia.
  • Vänskä, Risto (2020)
    Blood glucose monitoring (BGM) is an essential part of diabetes management. Currently available BGM technologies are invasive by nature, and require either sampling blood or an invasive needlelike sensor to be inserted under the skin. Extraction of interstitial fluid using magnetohydrodynamics is proposed as a technology to enable truly non-invasive glucose monitoring. Presently, only direct current (DC) has been investigated to be employed for magnetohydrodynamic extraction of interstitial fluid. In this study we studied in a skin model whether the extraction rate of magnetohydrodynamic extraction can be increased by using a unipolar square wave, with same time-averaged current as DC extraction used as a control. The results indicate a 2.3-fold increase in the average extraction rate, when unipolar square wave of double intensity is applied, as compared to DC. The results serve towards reducing the measurement time in non-invasive glucose monitoring systems utilizing magnetohydrodynamic extraction.