Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by discipline "Fysik"

Sort by: Order: Results:

  • Rydman, Walter (Helsingin yliopistoUniversity of HelsinkiHelsingfors universitet, 2001)
  • Nissinen, Tuomas (2015)
    Particle Induced X-ray Emission (PIXE) is an ion beam analysis technique. In PIXE, atoms in the sample are excited when the sample is bombarded with protons, alpha particles, or heavy ions. X-rays are emitted when atoms in the sample de-excite. Each element has unique characteristic x-rays. In the spectrum, area of each peak is proportional to the elemental concentration in the sample. The existing PIXE set-up in the accelerator laboratory was upgraded to external beam PIXE to do in air measurements, because of need to analyse large amounts of archaeological samples. Different exit window set-ups were constructed and tested. The goal was to get maximum beam spot area with minimum beam energy loss in the exit window. The set-up enables the use of 100 nm thick Si3N4 exit window membranes and 4-mm-diameter beam spot area. For the measurements in the current work, a 500 nm thick Si3N4 membrane was used due to its higher durability. Current measurement can be difficult when doing PIXE in air because of ionization of air molecules in the beam's path and charge collection differences at sample surface. The set-up utilizes a beam profile monitor (BPM), which measures the current in vacuum prior to the exit window, and therefore is not affected by the current measurement difficulties in air. Along with the BPM, a current integrator was also used in the current measurements. Current integrator was used to collect the charge from the sample holder. These two methods together provided reliable way of current measurement. With the developed set-up, 166 pottery pieces from the neolithic stone age from different parts of Finland, Sweden and Estonia, were measured to determine their elemental concentrations for provenance research. AXIL software was used to analyse the spectra.
  • Byggmästar, Jesper (2016)
    Interatomic potentials are used to describe the motion of the individual atoms in atomistic simulations. An accurate treatment of the interatomic forces in a system of atoms requires heavy quantum mechanical calculations, which are not computationally feasible in large-scale simulations. Interatomic potentials are computationally more efficient analytical functions used for calculating the potential energy of a system of atoms, allowing simulations of larger systems or longer time scales than in quantum mechanical simulations. The interatomic potential functions must be fitted to known properties of the material the potential describes. Developing a potential for a specific material typically involves fitting a number of parameters included in the functional form, against a database of important material properties, such as cohesive, structural, and elastic properties of the relevant crystal structures. In the Tersoff-Albe formalism, the fitting is performed with a coordination-based approach, where structures in a wide range of coordination numbers are used in the fitting process. Including many differently coordinated structures in the fitting database is important to get good transferability to structures not considered in the fitting process. In this thesis, we review different types of widely used interatomic potentials, and develop an iron-oxygen potential in the Tersoff-Albe formalism. We discuss the strengths and weaknesses of the developed potential, as well the challenges faced in the fitting process. The potential was showed to successfully predict the energetics of various oxygen-vacancy defect clusters in iron, and the basic properties of the common iron oxide wüstite. The potential might therefore mainly be applicable to atomistic simulations involving oxygen-based defects in solid iron, such as irradiation or diffusion simulations.
  • Martikainen, Laura (2017)
    Radiation detectors are devices used to detect ionizing radiation. They can be manufactured from different materials for different purposes. Chemical vapour deposition (CVD) diamond detectors are semiconductor radiation detectors manufactured from artificial diamond grown using the CVD method. The physical properties of diamond make diamond detectors fast and radiation hard, and hence they are a favourable option for precise timing measurements in harsh radiation environments. The work presented in this thesis was done as part of a detector upgrade project of the TOTEM experiment at the Large Hadron Collider of CERN, the European Organization for Nuclear Research. The upgrade program includes the development and the building of a timing detector system based on CVD diamond in order to include the capability to perform precise timing measurements of forward protons. A new I-V measurement setup was built for the purpose of quality assurance measurements of diamond crystals before their further processing to timing detectors. When the setup was operated, different problems were observed, including electrical discharging, instabilities of leakage currents and unexpectedly high leakage current levels. The undesired effects disappeared, when the electrical contact used for supplying bias voltage to the measured samples was modified. Results of both quality assurance and measurements for the setup development are presented.
  • Sairanen, Viljami (2013)
    Diffuusiokuvantaminen perustuu magneettikuvauslaitteen avulla mitattuun vesimolekyylien satunnaiseen lämpöliikkeeseen. Pehmytkudoksessa vesimolekyyli diffuntoituu noin 17 mikrometrin matkan 50 millisekunnin aikana ja diffuusiokuvantaminen on ainoa kliininen kuvantamismenetelmä, joka pystyy rekisteröimään näin pientä liikettä ei-invasiivisesti. Tutkimalla, missä suunnissa diffuntoituminen on voimakasta, voidaan paikantaa esimerkiksi valkeasta aivoaineesta hermoratojen reittejä. Tämä edellyttää käytännössä vähintään 20 diffuusiosuunnan kuvaamista, joiden pohjalta lasketaan diffuusion suuntaa ja suuruutta kuvaava diffuusiotensori kuva-alkiokohtaisesti. Menetelmä edellyttää nopeaa kuvausaikaa, jotta fysiologiset virtaukset tai potilaan liike eivät häiritse tasoltaan huomattavasti heikomman lämpöliikkeen rekisteröintiä. Nopea kuvaus puolestaan asettaa laiteteknisiä vaatimuksia gradienttikentille, joita ei anatomisessa T1- tai T2-painotetussa kuvantamisessa esiinny. Gradienttikelojen on pystyttävä toimimaan äärirajoillansa koko kuvauksen ajan, jotta useat peräkkäiset rekisteröinnit eri diffuusiosuunnissa ovat mahdollisia. Optimoinnissa käyttäjä ei voi vaikuttaa laiteteknisiin ratkaisuihin, mutta kuvausparametrien variointi on mahdollista. Edellytyksenä mielekkäälle optimoinnille on kuitenkin valita vertailtavat suureet, joiden perusteella voidaan sanoa, mitkä testatuista vaihtoehdoista paransivat kuvanlaatua. Diffuusiotensorikuvantamiseen (DTI) on ehdotettu laadunvalvontaprotokollaa, joka huomioi kuvausmenetelmän laitetekniset haasteet. Kyseinen julkaisu on ainoa, joka ottaa kantaa useimpiin DTI:n ongelmakohtiin ja on siten luonteva lähtökohta DTI-optimoinnille. Julkaisun menetelmässä tutkittiin DTI-sekvenssin tuottamaa signaalikohinasuhdetta, kuvaussekvenssistä ja indusoituvista pyörrevirroista johtuvia erilaisia geometrisia vääristymiä sekä diffuusiotensorista johdettuja FA- ja MD-arvoja. Työn ensimmäisessä vaiheessa valittiin kliiniseen DTI-sekvenssiin pohjautuva referenssisekvenssi, jota varioitiin yksi kuvausparametri kerrallaan. Muunnellut parametrit olivat kaikuaika, rinnakkaiskuvantamiskerroin, k-avaruuden keräyslaajuus, päämagneettikentän tasoitusalue sekä diffuusiopainotuskerroin eli b-arvo. Varioituja sekvenssejä oli yhteensä 10, joiden pohjalta valittiin kuvanlaatuun myönteisesti vaikuttaneet parametrit työn toiseen vaiheeseen, missä referenssisekvenssiä varioitiin usean parametrin suhteen. Lopputuloksena todettiin, että lyhin mahdollinen kaikuaika 55 ms ja suurin mahdollinen k-avaruuden kartoitusalueparametrin arvo 0,780 kasvattivat signaalikohinasuhdetta 13 %. Rinnakkaiskuvantamiskertoimen kasvattaminen kahdesta kahteen ja puoleen pienensi geometrisia vääristymiä kvalitatiivisessa arviossa, mutta heikensi signaalikohinasuhdetta referenssisekvenssiin verrattuna suurimmillaan vain 5 %. Päämagneettikentän tasoitusalueen valinnalla tai b-arvon pienentämisellä tuhannesta kahdeksaansataan ei havaittu olevan merkittävää vaikutusta kuvanlaadulle fantomitutkimusessa. Tulokset eivät poikenneet teoreettisista ennusteista, mutta toisaalta laiteteknisistä rajoituksista johtuen optimointi ei voi perustua pelkästään teoreettiseen arvioon oikeista parametrien arvoista. Työssä esitettyä menetelmää on mahdollista jatkossa käyttää myös muiden diffuusiopainotettujen sekvenssien optimoinnissa.
  • Naaranoja, Tiina (2014)
    The Large Hadron Collider (LHC) at CERN is currently being started up after a long shutdown. Another similar maintenance and upgrade period is due to take place in a few years. The luminosity and maximum beam energy will be increased after the shutdowns. Many upgrade projects stem from the increased demands from the changed environment and the opportunity of installation work during the shutdowns. The CMS GEM collaboration proposes to upgrade the muon system in CMS experiment by adding Gaseous Electron Multiplier (GEM) chambers. The new GEM-detectors need new Front-End electronics. There are two parallel development branches for mixed-signal ASICs; one comes with analog signal processing (VFAT3-chip) and another with analog and digital signal processing (GdSP-chip). This Thesis covers the development of the digital signal processing for the GdSP-chip. The design is described on algorithm level and with block diagrams. The signal originating in the triple GEM-detector sets special challenges on the signal processing. The time constant in the analog shaper is programmable due to irregularities in the GEM-signal. This in turn poses challenges for the digital signal processing. The pulse peaking time and signal bandwidth depend on the choice made for the time constant. The basic signal processing techniques and needs are common for many detectors. Most of the digital signal processing has shared requirements with an existing, well-tested Front-End chip. Time pick-off and trigger production was not included in these shared tasks. Several time pick-off methods were considered and compared with simulations. The simulations were performed first using Simulink running on Matlab and then on Cadence tools using Verilog hardware description language. Time resolution is an important attribute determined jointly by the detector and the signal processing. It is related to the probability to associate the measured pulse with the correct event. The effect of the different time pick-off methods on time resolution was compared with simulations. Only the most promising designs were developed further. Constant Fraction Discriminator and Pulse Recognition, the two most promising algorithms, were compared against analog Constant Fraction Discriminator and Time over Threshold time pick-off methods. The time resolutions obtained with noiseless signal were found to be comparable. At least in gas detector applications digital signal processing should not be ruled out of fear for deteriorated time resolution. The proposed digital signal processing chain for GdSP includes Baseline Correction, Digital Shaper, Integrator, Zero Suppression and Bunch Crossing Identification. The Baseline Correction includes options for using fixed baseline removal and moving average filter. In addition it contains a small memory, which can be used as test signal input or as look-up-table et cetera. Pole-zero cancellation is proposed for digital shaping. The integrator filters high frequency noise. The Constant Fraction Discriminator was found optimal for Bunch Crossing Identification.
  • Laurila, Tiia (2018)
    Differentiaaliliikkuvuusspektrometri (Differential Mobility Particle Sizer; DMPS) -laitteistoa voidaan käyttää ilmakehän aerosolihiukkasten lukumääräkokojakauman mittaamiseen. DMPS-laitteisto koostuu impaktorista, kuivaajasta, bipolaarisesta diffuusiovaraajasta, differentiaaliliikkuvuusanalysaattorista (Differential Mobility Analyzer; DMA) ja kondensaatio- hiukkaslaskurista (Condensation Particle Counter; CPC). Tässä työssä verrataan DMPS-laitteistossa rinnakkain mittaavan muokatun A20 CPC:n ja TSI 3776 CPC:n laskentastatistiikkaa. Pienimmillä aerosolihiukkasilla on vaikutus ympäristöön ja terveyteen, minkä takia on kasvava tarve mitata tarkasti myös pienimpien hiukkasten kokojakaumaa. Aerosolihiukkasten lukumääräkokojakaumaan ja siitä johdettavien suureiden epävarmuuksia ei kuitenkaan tunneta vielä täysin. Työssä pyritään parantamaan perinteisen CPC:n laskentastatistiikkaa ja tutkimaan lukumääräkokojakauman sekä siitä johdettavien suureiden, kuten muodostumisnopeuden (Formation Rate; J) ja kasvunopeuden (Growth Rate; GR), epävarmuuksia. Perinteinen, ilman suojavirtausta toimiva, CPC voidaan muokata havaitsemaan jopa alle 3 nm hiukkasia kasvattamalla lämpötilaeroa saturaattorin ja kondenserin välillä ja muuttamalla aerosolivirtausta. Tässä työssä A20 CPC:n aerosolivirtaus optiikan läpi kasvatettiin 2.5 litraan minuutissa diffuusiosta johtuvien häviöiden minimoimiseksi ja laskentastatistiikan parantamiseksi. Verrattuna TSI 3776 CPC:hen muokatulla A20 CPC:llä on 50 kertaa suurempi aerosolivirtaus, joten voimme olettaa, että muokattu A20 mittaa TSI 3776 UCPC:hen verrattuna enemmän hiukkasia pienemmällä epävarmuudella. Muokatulla A20 CPC:llä on parempi laskentastatistiikka, jonka ansiosta kokojakauman laskennasta johtuva suhteellinen virhe on pienempi. Muokatulla A20 CPC:llä on TSI 3776 CPC:hen verrattuna 50 kertaa suurempi aerosolivirtaus ja se laskee keskimäärin 50 kertaa enemmän hiukkasia koko DMPS-laitteiston mittaamalla kokoalueella (1-40 nm). Muokatulla A20 CPC:llä laskettu GR on noin 60% suurempi pienimmillä (3-6 nm) hiukkasilla ja noin 3% suurempi 6-11 nm hiukkasilla. Myös J on noin 30% suurempi muokatulla A20 CPC:llä laskettuna 3-6 nm hiukkasille. CPC:n laskennasta johtuva epävarmuus on syytä huomioitava määritettäessä DMPS-mittauksen kokonaisvirhettä. Laskentastatistiikalla on merkitystä paitsi lukumääräkokojakaumaan, myös sen johdannaissuureisiin.
  • Westenius, Mathias (2014)
    Kärnkraftsproducenterna TVO och Fortum har beslutit att deponera kärnavfall i berggrunden i Olkiluoto. Kärnavfallet kommer att placeras i kopparkanistrar, vilka omringas av en buffert bestående av leran bentonit. Buffertens uppgifter är extremt viktiga för slutförvaringens säkerhet, då bufferten skall skydda kanistrarna från externa kontaminanter och seismiska rörelser samt hindra transporten av radioaktivt material. Bentonitens viktigaste komponent är lermineralen montmorillonit. Montmorillonit består av skivor vilka är en nm tjocka och flera hundratals nm breda. Dessa skivor bildar olika strukturer. I detta arbete studerades montmorillonitpartiklarnas former, samt deras andelar, i kolloidala lösningar. Som lösningsämnen användes olika natrium- och kalciumlösningar, vilka motsvarar möjliga omständigheter i berggrunden i Olkiluoto. Lösningarna studerades med lågvinkelröntgenspridning (SAXS) samt med anpassningar av en teoretisk modell utvecklad av Pizzey et al (2009). Med hjälp av dessa kunde partikelstorlekarna, samt andelarna av de olika partiklarna, bestämmas för varje lösning. I alla lösningar påträffades enskilda bentonitskivor samt bentonitskivor i staplar, d.v.s. varierande lager av bentonit och lösning. Stapelstorlekarna, samt deras andelar, berodde på lösningen. I kalciumlösningarna bildades stora, kompakta staplar. Avståndet mellan skivorna var i dessa c. 1 nm och staplarna kunde bestå av över 10 skivor. Andelen av dessa staplar ökade klart med kalciumkoncentrationen. I natriumlösningarna uppstod staplar bestående endast av två skivor. Avståndet mellan skivorna varierade mellan 6-10 nm beroende på natriumkoncentrationen. I blandningar av både kalcium- och natriumlösningar dominerades växelverkan mellan skivorna av kalciumjonerna, d.v.s. stapelstrukturerna bestod till största delen av den kompaktare strukturen.
  • Penttilä, Paavo (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2009)
    Cellulose can be used as a renewable raw material for energy production. The utilization requires degradation of cellulose into glucose, which can be done with the aid of enzymatic hydrolysis. In this thesis, various x-ray methods were used to characterize sub-micrometer changes in microcrystalline cellulose during enzymatic hydrolysis to clarify the process and factors slowering it. The methods included wide-angle x-ray scattering (WAXS), small-angle x-ray scattering (SAXS) and x-ray microtomography. In addition, the samples were studied with transmission electron microscopy (TEM). The studied samples were hydrolyzed by enzymes of the Trichoderma reesei species for 6, 24, and 75 hours, which corresponded to 31 %, 58 %, and 68 % degrees of hydrolysis, respectively. Freeze-dried hydrolysis residues were measured with WAXS, SAXS and microtomography, whereas some of them were re-wetted for the wet SAXS and TEM measurements. The microtomography measurements showed a clear decrease in particle size in scale of tens of micrometers. In all the TEM pictures similar cylindrical and partly ramified structures were observed, independent of the hydrolysis time. The SAXS results were ambiguous and partly imprecise, but showed a change in the structure of wet samples in scale of 10-30 nm. According to the WAXS results, the degrees of crystallinity and the crystal sizes remained the same. The gained results support the assumption, that the cellulosic particles are hydrolyzed mostly on their surface, since the enzymes are unable to penetrate into the nanopores of wet cellulose. The hydrolysis therefore proceeds quickly in easily accessible particles and leaves the unaccesible particles almost untouched. The structural changes observed in the SAXS measurements might correspond to slight loosening of the microfibril aggregates, which was seen only in the wet samples because of their different pore structure.
  • Musazay, Abdurrahman (2015)
    Perovskites are a class of materials that possess many interesting properties with a wide range of technological applications in the field of optoelectronics and photovoltaics. In recent years, perovskites have gained considerable attention as an inexpensive and easy-to-synthesize light absorbing material for so-called organic-inorganic solar cells. In this study we wish to examine the structural and electronic properties of CH3NH3PbI3 organohalide lead perovskites. Charge transport behaviour between the light harvesting perovskite and the underlying electron transport mesostructure are some of the factors that affect the Power Conversion Efficiencies (PCE) of these devices. Therefore, advanced characterization methods were used to investigate the structural and electronic changes that may occur at the interface. Scanning electron microscopy (SEM) was used to survey the structure and morphology of the samples. It was found that the titania grain sizes were 20-25 nm in size and the perovskite grain sizes from 200 nm to 500 nm. The samples were prepared using a solution processing method, which is widely considered as one of the most cost effective ways for crystal growth. However, our studies show that this method does not provide a full perovskite coverage of the surface (14.4% of surface uncovered) which reduces the light harvesting yield. X-ray diffraction (XRD) was employed to study the crystal structure of the sample. It was concluded that the titania was in the anatase phase and the perovskite in a tetragonal crystal system (space group: I4/mcm), with a cell size of a=8.89 A and c=12.68 A. Moreover, our XRD results reveal the existence of a PbI2 crystal phase, indicating an incomplete conversion of the precursors to the perovskite phase. In order to probe the changes that occur at the interface and to elucidate the electron transport mechanisms, X-ray photoelectron spectroscopy (XPS) was conducted and the core-level spectra was investigated. A shift of 0.44 eV in the binding energy of the Ti 2p line was observed between the titania samples and the titania/perovskite. We hypothesize the origin of this shift to be due to a local screening effect, or the formation of a barrier between the perovskite and the titania that is hindering charge transport and is preventing the compensation for the surface charges lost during photoionization. Based on the findings presented in this thesis we suggest, as a possible research direction for the future, UV Photoelectron Spectroscopy (UPS) for constructing the band alignment schemes with the PbI2 layer included and a thorough investigation of the substrate effects and the synthesis routes on the charge transport dynamics of these systems.
  • Saressalo, Anton (2016)
    Ferroelectric materials show many promising features for applications in tomorrow's electronics. The ability to use polarization to store information in a dense space and good endurance make them one of the top contestants for the next generation memory applications, such as Ferroelectric or Resistive Random-Access Memory elements (FeRAM / ReRAM). The ReRAM elements are also a promising type for the missing circuit element, memristor, which links together the magnetic induction flux and the electric charge. Some materials also exhibit simultaneous ferroelectric polarization and magnetization. These are called multiferroics and could be a key towards magnetoelectric memories and a realization of four-state logic in a single device. A solid state ceramic, BiFeO 3 , has been under recent interest for such a multiferroic material since it exhibits large polarization simultaneously with magnetization. The challenges of BiFeO 3 include its high conductivity for an insulator and poor phase stability. Other materials with similar unit cell structure have been mixed with the material to successfully improve the properties. In this work, the ferroelectric properties of a ceramic solid state compound 0.80[BiFe 0.95 Mn 0.05 O 3 ]–0.20[BaTiO 3 ], or BFBT(Mn), were investigated under various electrical measurements. The results show that the material is ferroelectric. They also show that the conduction mechanism inside the material varies with the applied electric field, hinting to Space Charge Limited Conduction mechanism and Resistive Switching. The phenomenon is expected to be linked to migration of oxygen vacancies inside the sample and formation of conductive filaments.
  • Latikka, Mika (2014)
    Extremely water-repellent, i.e. superhydrophobic, surfaces display self-cleaning, anti-icing and anti-fogging characteristics, and can be used to reduce viscous drag in liquid flow. Despite the auspicious prospects of superhydrophobicity, methods for measuring wettability and energy dissipation in droplets moving on these surfaces have been insufficient. In this thesis I present the theoretical basis of non-wetting phenomena and review contemporary wetting characterization methods. I also discuss a measuring technique we developed for superhydrophobic surfaces based on magnetically induced oscillations of water-like ferrofluid droplets, which was recently published in Nature Communications. This method can simultaneously measure forces caused by two independent dissipative processes at a precision of ca. 10 nN. One is related to the contact angle hysteresis at the three-phase contact line and the other to viscous dissipation near the droplet-solid contact area. The ability to provide quantitative information about droplet dynamics, inhomogeneities and defects on extremely non-wetting surfaces can make this a useful research and quality control technique for academic and commercial use.
  • Palmerio, Erika (2015)
    Coronal Mass Ejections (CMEs) often travel in the interplanetary space faster than the ambient solar wind. When their relative velocities exceed the local magnetosonic speed, a shock wave forms. The region between the shock front and the leading edge is known as a sheath region. Sheaths are compressed regions characterized by turbulent magnetic field and plasma properties and they can cause significant space weather disturbances. Within the sheath region, it is possible to find fine structures such as planar magnetic structures (PMSs). The magnetic field vectors in a PMS are characterized by abrupt changes in direction and magnitude, but they all remain for a time interval of several hours nearly parallel to a single plane that includes the interplanetary magnetic field (IMF) spiral direction. PMSs have been associated to several regions and phenomena in the heliosphere, but many of them occur in CME sheath regions. This suggests that CMEs play a central role in the formation of PMSs, probably by provoking the amplification and the alignment of pre-existing discontinuities by compression of the solar wind at the CME-driven shock or because of the draping of the magnetic field lines around the CME ejecta. The presence of PMSs in sheath regions, moreover, suggests that PMSs themselves can be related to space weather effects at Earth, therefore a comprehensive study of PMS formation and structure might lead to a better knowledge of the geoeffectiveness of CMEs. This work presents the study of PMSs in the sheath region of CMEs with a magnetic cloud (MC) structure for a sample of events observed in situ by the ACE and WIND spacecraft between 1997 and 2013. The presence of fine structures is evaluated through the minimum variance analysis (MVA) method, needed for determining the normal vector to the PMS-plane. Then, the position of each PMS within its corresponding sheath region is determined and the encountered cases are divided into different groups. Eventually, a number of shock, sheath and MC properties is evaluated for each group, aiming to perform a statistical analysis. The conclusions are that PMSs are observed in 80% of the studied sheath events and their average duration is ∼5 hours. PMSs tend to form in certain locations within the sheath: they are generally observed close to the CME-driven shock, close to the MC leading edge or they span the whole sheath. PMSs observed near the shock can be associated to strong shocks, while PMSs located near the MC leading edge can be related to high density regions and, therefore, to compression.
  • Heino, Olga (2017)
    Helsingin yliopiston fysiikan laitoksella päätettiin uudistaa Fysiikan aineopintojen laboratoriotyöt 1 ja 2 (AOL 1 ja AOL 2) -kurssit kokonaisvaltaisesti, koska näiden kurssien suoritusaika saattoi opiskelijoilla pitkittyä monella vuodella ja kurssit koettiin kokonaisuudessaan liian raskaiksi. Uudistusta olivat tekemässä fysiikan oppiaineen vastuuprofessori Hanna Vehkamäki, yliopistonlehtori Szabolcs Galambosi, fysiikan opetuksen kehittämiseen erikoistuneet FT Inkeri Kontro ja FL Ilkka Hendolin sekä allekirjoittanut. Projekti aloitettiin keväällä 2015 ja uudistetut kurssit toteutettiin ensimmäisen kerran keväällä 2016 lehtori Galambosin luennoimina. Tässä opinnäytetyössä käsittelen AOL 1 ja AOL 2 -kurssien uudistusta, joka pohjautuu fysiikan laboratoriotyökursseja koskeviin tuoreimpiin tutkimuksiin. Esittelen näiden tutkimusten ja kurssien uudistusryhmän pohdintojen perusteella määritetyt teoreettiset oppimistavoitteet uusille kursseille ja käyn läpi uusien kurssien sisällön. Kursseista tehtiin aiempaa modulaarisemmat ja tämä tekee kurssien sisältöjen muokkaamisesta helpompaa tulevaisuudessa. Molemmat kurssit koostuvat kolmesta yksittäistä laboratoriotyöstä sekä laboratoriotöitä tukevista laskuharjoituksista ja kurssit ovat kumpikin laajuudeltaan 5 op. Molemmat kurssit koettiin kurssipalautteen perusteella kiinnostaviksi sekä haastaviksi. Ensimmäisille uudistettujen kurssien suorittajille teetettiin keväällä 2016 E-CLASS-kysely, joka mittaa opiskelijoiden näkemyksiä fysiikan laboratoriotyökurssien ja oikean kokeellisen tutkimuksen yhteydestä. Opiskelijat (n=30) täyttivät kyselyn AOL 1 -kurssin alussa ja AOL 2 -kurssin lopussa. Kyselyn tulokset viittaavat siihen, etteivät opiskelijoiden näkemykset edellä mainitusta yhteydestä muuttuneet kurssin aikana. Kyselyn avulla voidaan kuitenkin mahdollisesti arvioida yksittäisten kurssitavoitteiden täyttymistä. Uudistuksen myötä syntyi lisää kehitysehdotuksia tuleville laboratoriotyökursseille, joita käsittelen tutkielman lopussa.
  • Kelaranta, Anna (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2011)
    Tavanomaisten hammasröntgenlaitteiden säteilyannoksia valvotaan postitettavien testipakettien ja paikan päällä tehtävien tarkastusten avulla. Säteilyannoksen valvontaan käytetään termoluminesenssidosimetrejä (Thermoluminescence Dosimetry, TLD). Dosimetreissä on TL-materiaalista valmistettuja loistekiteitä, joihin absorboitunut säteilyenergia vapautuu valona materiaalia lämmitettäessä. Prosessissa vapautuvan valon intensiteetti on suoraan verrannollinen absorboituneeseen säteilyannokseen. TLD:llä mitataan rekisteröityjen intraoraalilaitteiden tuottamaa säteilyannosta potilaan posken kohdalla. Säteilyturvakeskus (STUK) ylläpitää rekisteriä ilmoitusvelvollisuuden alaisista hammasröntgenlaitteista. Nyt hammaslaiterekisteriä ollaan uudistamassa siten, että TLD-mittaustulosten käsittely ja annoslaskenta siirtyvät rekisteristä WinTLD-laskentaohjelmaan, jossa on kaikki tarvittavat parametrit annoksen laskemiseksi. Tässä työssä TLD-mittausjärjestelmän kalibrointituloksia analysoitiin vuosilta 1996-2011 ja määritettiin uudelleen laskennassa käytetty energiakorjauskerroin, joka on osa tulevaa WinTLD-konfigurointia. Mittauksissa tarvittavat standardisäteilylaadut (ISO H-laadut) pystytettiin osana työtä. Henkilödosimetrien suorituskykytestauksessa käytetään ISO N-säteilylaatuja. Mirion Technologies (RADOS) käyttää TLD-systeemiä henkilödosimetriassa, ja hammas-TLD on tämän järjestelmän sovellus potilasdosimetriaan. ISO H-laadut otettiin käyttöön, jotta dosimetrien vastetta voitiin ISO N-laatujen tapaan tutkia jatkuvana fotonienergian funktiona Cs-137 ja Co-60 gammasäteilylaatuihin asti ja koska niillä voitiin jäljitellä todellista kliinistä suodatusta. Energiakorjauskerroin kalibroinnissa käytettävän Co-gammasäteilyn ja intraoraalikuvauksissa käytettävän röntgensäteilyn välillä määritettiin uudelleen. Sen arvoksi (yksikkö mGy/mGy) saatiin ISO N-60-laadulla 0,671 ja ISO H-60-laadulla 0,677, jotka ovat numeerisesti hyvin lähellä aikaisemmin määritettyä kerrointa 0,679. Energiakorjauskertoimen epävarmuudeksi saatiin 3,5 % (2std) ja annosmittauksen epävarmuudeksi 7,8 %. Energiavasteiden perusteella dosimetreissä käytetty materiaali on kahdesta vaihtoehdosta MTS-N (LiF:Mg,Ti) eikä MCP-N (LiF:Mg,Cu,P). TLD-järjestelmää voidaan kehittää ja konfiguroida uusien tulosten perusteella, jolloin otetaan käyttöön muun muassa uudelleenmääritetty energiakorjauskerroin. ISO H-säteilylaadut otettiin 22.3.2011 virallisesti käyttöön STUKissa ja niitä käytetään dosimetritestauksessa tarvittaessa suuria annosnopeuksia ja annoksia.
  • Äijälä, Mikko (2012)
    Ilmakehän aerosolien, ts. kaasumolekyylien ja pienhiukkasten, kemiallinen koostumus vaikuttaa merkittävästi siihen millaisia vaikutuksia niillä on mm. ilmastoon, näkyvyyteen ja ihmisten terveyteen. Aerosolihiukkasten kemiallisen koostumuksen määritys on perinteisesti ollut haasteellista niiden pienen massan ja vaikean kerättävyyden sekä säilytettävyyden vuoksi. Tässä työssä käsitellään aerosolin kemiallisen koostumuksen määritystä suoraan ja lähes reaaliaikaisesti aerosolimassaspektrometria (AMS) käyttäen. Työssä esitellään lyhyesti massaspektrometrian perusteoria, mutta pääpaino on mittaustekniikassa ja mittaustulosten käsittelyssä. Tutkielman loppuosassa esitellään myös aerosolimassaspektrometrilla saatuja mittaustuloksia Helsingin yliopiston Hyytiälän metsäntutkimusasemalta. Aerosolimassaspektrometrin todetaan olevan tarpeellinen ja käyttökelpoinen mittalaite, joka täyttää tärkeän tehtävän aerosoli-instrumenttien joukossa – erityisesti, koska se kykenee määrällisesti mittaamaan lähes kaiken tyyppisiä aerosoleja. Kemiallisten lajien jakauman mittaamisen lisäksi AMS:n avulla voidaan myös saada tarkempaa tietoa aerosolin molekylaarisesta koostumuksesta, hapetusasteesta sekä kokojakaumasta. Työssä osoitetaan lisäksi, että yhdistämällä AMS:lla kerättyä tietoja muista ilmakehämittauksista saatuun tietoon voidaan arvioida mitatun aerosolin alkuperää ja sen muodostumiseen vaikuttaneita kemiallisia prosesseja.
  • Peltola, Maija (2018)
    Tässä työssä tutkitaan, kuinka hyvin ilmastomalli ennustaa pienhiukkasten lukumääräpitoisuuksia ja etsitään syitä pitoisuuksien väärinarvioinnille. Työ on toteutettu vertailemalla aerosoli-ilmastomalli ECHAM-HAM:lla mallinnettuja hiukkaspitoisuuksia 31 eri paikassa ympäri maailmaa mitattuihin hiukkaspitoisuuksiin. Mallista on hyödynnetty kolmea eri versiota, jotka poikkeavat toisistaan siinä, miten aerosolihiukkasten kokojakaumaa ja antropogeenisiä päästöjä kuvataan. Lukumääräpitoisuuksien eroja on tarkasteltu eri kokoluokissa ja eri vuodenaikoina. Työssä on keskitytty erityisesti hiukkasiin, joiden halkaisijat ovat yli 50 tai 100 nm, sillä nämä ovat ilmaston kannalta erityisen mielenkiintoisia kokoja. Lisäksi työssä on tutkittu hiukkasten kemiallisen koostumuksen ja antropogeenisten päästöjen vaikutusta päästöjen ennustamiseen. Hyytiälän mittausasemalle on tehty työssä myös tarkempi analyysi, jossa yhtä malliajoista vertaillaan hiukkasten mitattuun kemialliseen koostumukseen ja hiukkasten halkaisijoitten kasvunopeuksiin. Työssä havaittiin, että mallin kyky arvioida hiukkaspitoisuuksia riippuu paljon käytetystä malliajosta. Käytettäessä hiukkasten kokojakauman kuvaamiseen sektionaalista SALSA-modulia pitoisuuksia yliarvioidaan usein, mutta pitoisuudet olivat keskimäärin lähempänä mittauksia kuin muilla malliajoilla. Modaalisella M7-modulilla hiukkaspitoisuuksia aliarvioitiin lähes kaikille paikoille selvästi. Aliarviointi oli pahinta syrjäisille pohjoisille paikoille. Sekä tästä että kemiallisen koostumuksen vertailusta voidaan päätellä, että antropogeeniset päästöt dominoivat mallissa hiukkaspitoisuuksia liikaa syrjäisillä mittauspaikoilla eikä biogeenisistä lähteistä tulevia uusia hiukkasia muodostu ja kasva yhtä paljon kuin todellisuudessa. Talvisaikaan pitoisuuksien aliarviointia selittää myös se, että mallin antropogeeniset päästöt ovat vakioita ympäri vuoden eikä esimerkiksi lämmityspäästöjen nousua talvella huomioida. Vertailtaessa kaikkien paikkojen lukumääräbiaksia antropogeenisiin päästöihin nähtiin, että pitoisuuksia aliarvioidaan enemmän silloin, kun antropogeeniset päästöt ovat matalia ja yliarvioidaan enemmän silloin, kun antropogeeniset päästöt ovat korkeita. Tämä vahvistaa havaintoa siitä, että antropogeeniset päästöt dominoivat hiukkaspitoisuuksia liikaa. Toinen mielenkiintoinen asia, joka tässä tarkastelussa havaittiin, on se, että kun antropogeenisten haihtuvien orgaanisten yhdisteiden päästöt ovat korkeita suhteessa mustan hiilen päästöihin, hiukkaspitoisuuksia aliarvioidaan enemmän kuin jos näiden päästöjen suhde on matala. Näiden yhdisteiden huomiotta jättäminen hiukkasmuodostuksessa saattaa siis olla yksi pitoisuuksien aliarviontia selittävä tekijä. Tulevaisuudessa analyysiä olisi hyvä jatkaa muun muassa tekemällä tarkempi analyysi Hyytiälän lisäksi myös muille mittauspaikoille. Samalla tarkemmassa analyysissä kannattaisi hyödyntää kaikkia malliajoja. Jotta analyysi voidaan tehdä tarkemmalla tasolla, malli- ja mittausdataa pitäisi olla saatavilla samoilta vuosilta. Vertailun hyödyn maksimoimiseksi käytettyjen mittauspaikkojen pitäisi edustaa ympäristöään hyvin ja hiukkasten kokojakaumaa kannattaisi mitata mahdollisimman laajalla kokovälillä vähintään vuoden ajan. Malleja puolestaan pitäisi ajaa mukautetulla meteorologialla vuosille, joilta mittausdataa on saatavilla.
  • Veira Canle, Daniel (2016)
    Propeller inspection is mandatory for the safe operation of aircraft. Non-contact damage evaluation on rotating structures requires dedicated measurement techniques. We report on a non-contacting stroboscopic technique that allows inspection of rotating aluminum propellers. To excite Lamb waves we used a Q-switched Nd:YAG laser in synchrony with data acquisition by a Laser Doppler Vibrometer. We detected, sized, and imaged a surface breaking notch on a sample rotating at 415 rpm. The technique showed potential for automatic non-contacting damage detection on rotating structures such as helicopter blades and turbines. The samples, manufactured at the Department of Physics of the University of Helsinki were aluminum blades 130 mm x 76.10 mm x 4 mm in size. One of them was used as a baseline while the other one had a surface breaking rectangular defect that was 5 mm x 10 mm x 2.4 mm in size, situated 35.10 mm from the center of the propeller. The propeller was rotated by a 12 V DC motor connected to a pulse width modulation circuit based on a 555 timer integrated circuit. To detect the movement of the rotating blade, a custom made optical gate was built by using common electronics such as blue LED, a LM311 comparator and a blue enhanced photodiode. All electronics were built in the Electronics Research Laboratory of the Department of Physics. Using C++ programming language we designed an algorithm for scanning the moving target. The code was implemented into an Arduino Mega 2560 microcontroller that was connected to a computer. The user operated the computer which controlled the microcontroller via a Labview program. Two types of scans of the samples were performed. In one type the TX scanned the blade from edge to center while the LDV pickup spot was stationary at the center. From this experiment we were able to determine the distance from the notch to the center of the blade and the length of the defect from time-of-flight measurements. The second type of scan was done by situating the LDV pickup point close to the center of the blade and the excitation point at the far side of it, close to the edge. This time we did not scan with the lasers but we divided the arc path that they follow into even steps. From this experiment we were able to determine the width of the notch as well as its depth based on time-of-flight analysis. The results agree with the expected values. Finally, by doing data selection of the delayed Lamb waves with Matlab R2015 and Blender 2.77a, we were able to do image reconstruction of the notch in a 3D model of the aluminum propeller.
  • Richter, Stefan (2013)
    An algorithm for invariant mass reconstruction in a search for light charged Higgs bosons (H±) produced in top quark decays and decaying to a tau lepton and neutrino, H^± -> τ^± ν_τ, is presented. Here, 'light' means lighter than the top quark. The algorithm uses the top quark mass as a kinematical constraint to allow the calculation of the longitudinal momentum of the neutrinos. The invariant mass of the tau-and-neutrino system is then calculated using the missing transverse energy, the calculated longitudinal momentum of the neutrinos, and the measured momentum of the visible decay products of the tau lepton. Methods for resolving ambiguities and recovering unphysical results arising in the invariant mass reconstruction are presented. The invariant mass distribution could be used to extract a possible signal, replacing or complementing the transverse mass distribution that has been used so far in the analysis. In a preliminary data analysis using proton-proton collision data at sqrt(s) = 7 TeV corresponding to an integrated luminostity of 5.1 fb^(-1) recorded by the CMS experiment, it is shown that using invariant mass distribution obtained with the presented algorithm allows to set a more stringent upper limit on the signal branching fraction B(t -> H^± b) × B(H^± -> τ^± ν_τ) than does using the transverse mass distribution. An expected upper limit at the 95 % confidence level between around 0.37 % to 2.5 % (transverse mass) and 0.13 % to 1.9 % (invariant mass) is found, depending on the H^± mass. These results suggest that using the invariant mass reconstructed with the new algorithm may improve the signal sensitivity of the search.
  • Ruhala, Anna (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2007)
    Mahdollisimman tarkka tieto varatun hiukkasen energianmenetyksestä sen kulkiessa näytteessä on usein hyvin olennaista varteenotettavien tutkimustulosten aikaansaamiseksi monilla eri fysiikan suuntautumisaloilla. Aihe onkin hyvin laajalti tutkittu. Kehityksen kuitenkin edetessä yhä pienempiin mittasuhteisiin ja tarkempiin arvoihin on tärkeää, että myös ionien energianmenetyksestä väliaineessa saadaan yhä tarkempaa tietoa. Takaisinsirontaspektrometriassa tarkastellaan näytteestä sironneita ammusioneja. Takaisinsironnan avulla voidaan tunnistaa näytteen sisältämät alkuaineet, selvittää syvyysjakauma ja näytteen alkuaineiden suhteelliset runsaudet. Menetelmään liittyvät ilmiöt ovat varsin monimutkaisia ja niiden teoreettinen mallintaminen siten haasteellista. Kun tavoitteena on simuloida mahdollisimman tarkasti tilannetta, jossa kiihdytetty ioni etenee näytteessä ei analyyttinen ratkaisumalli välttämättä ole paras vaihtoehto. Tilannetta kuvaamaan onkin kehitetty useita eri laskennallisia menetelmiä. Tässä työssä tarkasteltiin sitä kuinka paljon kaksikertasironnan huomioon ottaminen vaikuttaa tuloksiin takaisinsirontaa simuloitaessa. Useimmat takaisinsironnan mallinnusohjelmat ottavat huomioon ainoastaan yksikertasironnan. Tämä on varsin ymmärrettävää, sillä jo toisen sirontatapahtuman huomioon ottaminen ja mallintaminen analyyttisesti lisää huomattavasti simulaation laskutapahtumien lukumäärää ja hidastaa siten itse simulaatiota. Työtä varten kirjoitettiin ohjelma, jolla simuloituja tuloksia verrattiin sekä näytteistä mitattuihin että toisella simulaatio-ohjelmalla tuotettuihin spektreihin. Vertailusta kävi selvästi ilmi kaksikertasironnan merkitys takaisinsirontaa simuloitaessa. Yksikertasironnan tuoma informaatio päättyy energiaan, jolla näytteen takareunasta sironnut ioni havaitaan ilmaisimessa. Toisen sirontatapahtuman huomioon ottaminen tuo lisäinformaatiota etenkin spektrin häntäalueella. Laaditulla ohjelmalla pystyttiin nyt käsittelemään ainoastaan erikoistapausta, jossa ionisuihku ammuttiin kohtisuoraan näytteeseen. Looginen jatkotoimenpide työn parissa olisi laajentaa ohjelma käsittämään muutkin ionisuihkun tulokulmat.