Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by discipline "Fysik"

Sort by: Order: Results:

  • Auno, Sami (2018)
    Chemical Exchange Saturation Transfer (CEST) is a novel Magnetic Resonance Imaging (MRI) technique that utilises exchange reactions between metabolites and tissue water to map metabolite concentration or tissue pH noninvasively. Similarly to Magnetic Resonance Spectroscopy (MRS), CEST is able to detect many endogenous metabolites, but unlike MRS, CEST is based on imaging and thus enjoys the speed of modern MR imaging. On the other hand, CEST also suffers from the same difficulties as MRI and MRS. One of the most common source of image artifacts in MRI is subject motion during imaging. Many different motion correction methods have been devised. Recently, a novel real-time motion correction system was developed for MRS. This method is based on volumetric navigators (vNav) that are performed multiple times interleaved with the parent measurement. Navigator image comparison, affine matrix calculation, and acquisition gradient correction to correct the field of view to match subject head motion are done online and in real-time. The purpose of this thesis is to implement this real-time motion correction method to CEST-MRI and study its efficacy and correction potential in phantoms and in healthy volunteers on 7T MR scanner. Additionally, it is hypothesised that the vNav images may be used to correct for motion related receiver sensitivity (B1-) inhomogeneities. Glutamate was chosen as the metabolite of interest due to it being the most abundant neurotransmitter in the human brain and due to its involvement in both normal cognitive function as well as many brain pathologies. Since glutamate has an amine group, it undergoes chemical exchange with water and is thus a usable metabolite for CEST imaging. A glutamate phantom was constructed to show the glutamate concentration sensitivity of CEST and to test and optimise the CEST sequence. Seven healthy volunteers were imaged over a period of two months. All but one volunteer were imaged more than once (2-4 times). Subjects were measured without voluntary head motion and with controlled left-right and up-down head movements. All measurements were performed with and without motion correction to test the motion and B1- -correction methods. Additionally, three volunteers were measured with a dynamic CEST experiment to assess the reproducibility of CEST. The real-time motion correction method was found to be able to correct for small, involuntary head movements. 18 % of the CEST maps measured without motion correction were found to have motion artifacts whereas the equivalent number for maps with motion correction was 0 % (4/22 maps versus 0/18 maps). Larger (>0.7◦ or >0.7 mm in one coregistration step), voluntary head movements could not be corrected adequately. The vNav images could be used to correct for B1- -inhomogeneities. This was found to improve CEST spectra quality and to remove lateral inhomogeneities from the CEST maps. The reproducibility of the CEST-MRI could not be established, however dynamic CEST measurements were found to be stable with only small contrast fluctuation of 4 % between consecutive maps due to noise.
  • Tikkanen, Olli-Pekka (2016)
    Aerosolihiukkasten kasvu kokoon, missä niillä voi olla merkitystä ilmastolle, riippuu ilmakehässä olevien kaasujen ominaisuuksista ja pitoisuuksista sekä hiukkastenvälisestä koagulaatiosta. Hiukkasessa tapahtuvilla kemiallisilla reaktioilla on myös vaikutusta yhdisteiden tiivistymiseen ja haihtumiseen hiukkasesta. Tässä tutkielmassa perehdytään rikkihappo-dimetyyliamiiniklustereiden koagulaation vaikutukseen aerosolihiukkasten kasvunopeuteen, kun hiukkasen halkaisija on välillä 3-20 nm, mikä on tärkein kokoalue aerosolihiukkasen kasvun kannalta. Tarkastelun kohteena ovat klusterit, jotka koostuvat yhdestä rikkihappomolekyylistä ja yhdestä dimetyyliamiinimolekyylistä aina klusteriin joka koostu neljästä rikkihappo- ja dimetyyliamiinimoleekylistä. Työssä kehitettiin kaksi uutta versiota MABNAG-mallista, joka mallintaa aerosolihiukkasten kasvua kaasujen tiivistymisen kautta: ensimmäinen kehitetty versio sisälsi rikkihappo-dimetyyliamiiniklustereiden koagulaation aerosolihiukkasiin ja toisessa versiossa dimetyyliamiinin käsittely muutettiin aikaisemmasta tavasta, missä hiukkas- ja kaasufaasien oletettiin olevan jatkuvasti termodynaamisessa tasapainossa, tapaan missä dimetyyliamiinin tiivistyminen ratkaistaan yhdisteen massavuota kuvaavasta differentiaaliyhtälöstä. Kumpaakin uutta versiota verrattiin alkuperäiseen versioon ja muutoksia mallinnetussa aerosolihiukkasten kasvussa analysoitiin. Rikkihappo-dimetyyliamiiniklustereiden koagulaation vaikutukset MABNAG-mallista saatuihin aerosolihiukkasten kasvunopeuksiin olivat kahdenlaisia. Kun rikkihapon kaasufaasin pitoisuus oli 10^6 cm-3, eivät tutkitut klusterit juurikaan vaikuttaneet aerosolihiukkasten kasvunopeuteen. Korkeammilla rikkihappopitoisuuksilla (tässä työssä 10^7 cm-3 ja 10^8 cm-3) klusterit nostivat kasvunopeutta parhaimmillaan hieman yli viisikymmentä prosenttia, mutta tyypillisemmin 10-40 % riippuen simulaatioon asetettujen yhdisteiden kaasufaasin pitoisuuksista. Tulokset eivät kuitenkaan olleet täysin linjassa keskenenään, vaan esimerkiksi ammoniakin kaasufaasin pitoisuuden kasvattaminen saattoi pienintää kasvunopeutta verrattuna pienempään ammoniakkipitoisuuteen. Kokonaisuutena saadut tulokset osoittavat, että rikkihappo-dimetyyliamiiniklustereiden koagulaatio on otettava huomioon viimeistään mallinnettaessa aerosolihiukkasten kasvua systeemeissä, missä rikkihapon ja dimetyyliamiinin kaasufaasin pitoisuudet ovat suurempia kuin 10^6 cm-3. kertaluokka. Dimetyyliamiinin tiivistymisen laskentatapaa tutkittaessa tultiin tulokseen, että oletus välittömästä termodynaamisesta tasapainosta on pätevä tyypillisillä mallin sisäänsyöttöasetuksilla. Tuloksissa havaittiin pieniä poikkeamia yhdisteiden hiukkasfaasin massoissa eri yhdisteiden välillä, mutta mikään näistä ei ollut riitttävän suuri saamaan aikaa eroavaisuuksissa hiukkasen säteessä ajan funktiona.
  • Ahmad, Mian Awais (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2015)
    Analytical X-ray appliances are widely used for materials characterization. The use of X-rays without proper protection can lead to harmful effects. In order to minimize these harmful effects, it is essential to have a proper estimation of the dose rates around the equipment. Moreover, it is important to follow the safety regulations in order to avoid accidental exposure. This thesis outlines the potential hazards in the use of X-ray analytical instrumentation at the Division of Materials Physics, University of Helsinki. The theoretical part of the thesis introduces to the generally approved fundamental principles of radiation protection and the regulations based on these principles. Also, the production and properties of X-rays, radiation dosimetry and the biological effects of X-rays are discussed. The experimental part evaluates the actual radiation protection in the X-ray laboratories. Two open X-ray appliances, a powder diffractometer and a Laue setup, were selected for a closer study. A copper anode X-ray tube was used and the tube current was set to 20 mA and the voltage to 45 kV, which are the typical experimental values. The dose rates around the equipment were mapped by an ionization chamber. Based of these measurements, the maximum expected dose rate around the powder diffractometer was estimated to be of the order of 1 µSv/h at the user position. In the case of Laue system, the dose rate around equipment was estimated to be 10-100 times the dose rate around the powder diffractometer. Additionally, for powder diffractometer the theoretical characteristic X-ray flux from the tube was calculated. The characteristic X-ray flux after the monochromator at sample position was measured using a scintillator detector and a copper filter. The dose rate calculated from the flux was as high as 10 mSv/s. In typical powder diffraction experiments the expected dose rates are lower than these estimated maximum values. In general, the equipment were found to be safe to work with, provided that the users follow the department regulations and safety guidelines.
  • Heikkilä, Jaana Kristiina (2015)
    ATLAS and CMS collaborations at the Large Hadron Collider have observed a new resonance consistent with the standard model Higgs boson. However, it has been suggested that the observed signal could also be produced by multiple nearly mass-degenerate states that couple differently to the standard model particles. In this work, a method to discriminate between the hypothesis of a single Higgs boson and that of multiple mass-degenerate Higgs bosons was developed. Using the matrix of measured signal strengths in different production and decay modes, parametrizations for the two hypotheses were constructed as a general rank 1 matrix and the most general 5 x 4 matrix, respectively. The test statistic was defined as a ratio of profile likelihoods for the two hypotheses. The method was applied to the CMS measurements. The expected test statistic distribution was estimated twice by generating pseudo-experiments according to both the standard model hypothesis and the single Higgs boson hypothesis best fitting the data. The p-value for the single Higgs boson hypothesis was defined from both expected test statistic distributions, and it was (8.0 ± 0.3)% and (11.0±0.3)%, respectively. In addition to this, a p-value was also estimated in an alternative way using a χ2 distribution, fitted to the pseudo-experiments for the standard model Higgs boson hypothesis. The resulting p-value was 10.8%. Thus the three estimates yield similar p-values for the single Higgs boson hypothesis. These results suggest that the CMS data is compatible with the single Higgs boson hypothesis, as in the standard model. Furthermore, the result is insensitive to choice of the single Higgs boson hypothesis used to derive it, and it does not depend on the precise shape of the test statistic distribution. The developed method can be applied also to other arbitrarily-sized matrices, and it takes into account the uncertainties on the measurements, missing elements of data, and possible correlations. This thesis is an extensive description of the method that has also been published in EPJC (David, Heikkilä and Petrucciani), and the method has been used in the final Run 1 Higgs combination and properties article (CMS Collaboration, incl. Heikkilä).
  • Bloss, Matthew (2016)
    Atmospheric secondary organic aerosol formation is not completely understood, aerosol processes and chemistry are complex as well as their interactions and evolution throughout the atmosphere. In this study the potential aerosol mass chamber was used to simulate these processes. Potential aerosol mass being the maximum mass that can be produced from precursor gases being oxidised. UV lamps situated inside the chamber produce oxidants (O3, OH, HO2) at the same ratio as the atmosphere and the lamp intensity can be changed to simulate different days of photochemical aging. Laboratory characterisation measurements were undertaken by adjusting various experimental parameters (level of oxidants, relative humidity, temperature, type of precursor and its concentration). The aim of these measurements is to understand how the PAM chamber simulates atmospheric aerosol aging and photochemical processes. The PAM chamber was observed to simulate atmospheric SOA formation well. As the amount of oxidants was increased the amount of formed SOA increased initially. After a certain point, it was observed that fragmentation started to decrease the mass even though the oxidation level of SOA increased further.
  • Vartiainen, Ville (2013)
    Polypeptide-surfactant complexes are macromolecules capable of taking similar secondary structures to polypeptides. In this thesis it was shown that it is possible to control the secondary structure of poly(L-lysine)-dodecylbenzenesulfonic acid complexes in nanoparticles by varying solvent and aerosol reactor temperature. Using chloroform as the solvent promoted α-helix while 1-propanol promoted β-sheet secondary structure. Dimethylformamide (DMF) seemed to induce random coil. When chloroform was used in the aerosol process, transformation from α-helix to β-sheet occured between 80°C and 100°C. Secondary structure was measured using FT-IR. Above and below the transition temperature the secondary structure was relatively independed of the reactor temperature. Similar transition was also observed with 1-propanol and DMF, but transition states were also seen. Addition of tertiary molecules to the nanoparticles prevented formation of the β-sheet in 100°C and 1-propanol. Lamellar self-assembly was observed with TEM in all the particles, while it was expected only in particles with complexes in β-sheet secondary structure.
  • Viljanen, Mira (2018)
    Puulajit, siemenkasvien (Spermatophytae) sukuun kuuluvina, jaotellaan tyypillisesti havu- ja lehtipuihin, joka noudattaa karkeasti jakoa paljassiemenisiin (Gymnosperms) ja koppisiemenisiin (Angiosperms) kasveihin. Havu- ja lehtipuulajit eroavat toisistaan suuresti puusolukon rakenteellisten seikkojen ja sen sisältämien kemiallisten yhdisteiden suhteen. Maailmanlaajuisesti noin 10 000 puulajia on Kansainvälisen suojeluliiton IUCN:n Punaisen listan mukaan vaarantuneita, uhanalaisia tai erittäin uhanalaisia. Iso osa näistä puulajeista on trooppisella ja subtrooppisella ilmastovyöhykkeellä kasvavia lehtipuita, joiden määrä on vähentynyt suuren kysynnän ja laittomien hakkuiden seurauksena. Vaarantuneiden ja uhanalaisten puulajien suojelemiseksi ja luonnon monimuotoisuuden säilyttämiseksi on erittäin tärkeää löytää elinvoimaisia, ominaisuuksiltaan samankaltaisia puulajeja, jotka voisivat mahdollisesti tulevaisuudessa korvata liiaksi käytetyt puulajit. Selluloosa on maapallolla kaikkein yleisimmin esiintyvä polymeeri, joka muodostaa tukirakenteen kaikissa Plantae-suvun eliöissä. Puiden kuivamassasta noin 50 % koostuu selluloosasta ja loppuosan muodostavat hemiselluloosat (25 %), ligniini (20 %) ja uuteaineet (alle 5%), puulajista riippuen. Suurin osa puuaineksen sisältämästä selluloosasta, hemiselluloosasta ja ligniinistä on sitoutuneena solujen soluseinien rakenteisiin. Puusolukossa selluloosaketjut kerääntyvät osittain kiteisiksi kimpuiksi, mikrofibrilleiksi, jotka ovat kiertyneenä puun solukon soluseinien ympärille muodostaen kulman solun pituussuuntaisen akselin kanssa. Tämä kulma tunnetaan mikrofibrillikulmana (Microfibril Angle, MFA). MFA:n on aiempien tutkimusten perusteella osoitettu olevan tärkeä tekijä mikrofibrillien kiteisyyden ohella puun mekaanisten ominaisuuksien selittäjänä. Mikrofibrillien orientaatiota ja kiteisyyttä havupuiden solukossa on tutkittu paljon, mutta lehtipuille ja erityisesti trooppisille lehtipuille vastaavaa kansainvälistä tutkimusta ei ole juurikaan tehty. Tässä opinnäytetyössä tutkittiin lauhkean ja trooppisen ilmastovyöhykkeen havu- ja lehtipuiden soluseinän selluloosamikrofibrillien ominaisuuksia laajakulmaröntgensironnan avulla. Osa tutkituista, trooppisista puulajeista on vaarantuneita ja uhanalaisia. Puista tutkittuja parametreja olivat selluloosamikrofibrillien keskimääräinen mikrofibrillikulma, kiteisyysaste ja kidekoko yhteensä kahdeksassatoista eri havu- ja lehtipuulajissa. Lisäksi sirontakuvioiden sisältämistä ylimääräisistä heijastuksista arvioitiin trooppisten lehtipuiden sisältämien epäorgaanisten, kiteisten uuteaineiden tyyppiä. Lauhkean vyöhykkeen havu- ja lehtipuulajeille mikrofibrillikulman ja kiteisyyden keskiarvoiksi saatiin 12,8 ± 3,7 ° ja 24,8 ± 2,6 %, ja 14,7 ± 5,1 ° ja 30,1 ± 2,8 %. Trooppisen vyöhykkeen lehtipuille keskimääräisen mikrofibrillikulman arvoksi mitattiin 12,7 ± 4,7 ° ja kiteisyydeksi 27,7 ± 4,1 %. Kidekoko oli kaikille puulajeille lähes identtinen ja suuruudeltaan noin 29,7 ± 1,5 Å. Tilastollisesti merkittäviä eroja lauhkean ja trooppisen vyöhykkeen puulajien välillä havaittiin kiteisyydessä, mutta ei mikrofibrillikulman tai kidekokojen osalta. Trooppisten lehtipuiden sisältämät, todennäköisimmät epäorgaaniset uuteaineet sirontakuvien perusteella olivat kiteinen kalsiumoksalaatti CaC2O4 ja kalsiumkarbonaatti CaCO3.
  • Herranen, Touko (2014)
    In this study, I simulate domain wall dynamics and Barkhausen noise in ferromagnetic thin films with the random-field Ising model. Barkhausen noise is a phenomenon that has been studied for almost a century yet the theory remains unclear in ferromagnetic thin films. The noise is mainly generated by the irregular movement of the magnetic domain walls, which separate the magnetic domains with different uniform magnetizations. Barkhausen noise is observed as the jerky variations of the magnetization as a pinned domain wall abruptly advances and causes an avalanche. The simulations of this work focus on the thin films, which previously have been studied with various simulations and some experiments. The random-field Ising model is a spin model which has a quenched random field interacting with the spins. In this study, also the dipolar interactions are introduced to the system. The competition between the exchange interactions of quantum mechanical origin and the dipolar interactions force the domain wall to create zigzag patterns. I simulate the model with triangular, square and hexagonal lattices. The results show the effect of the underlying lattices on the domain wall dynamics and structure. Universality of the Barkhausen effect would implicate that the microstructural parameters such as the lattice structure of the model should not affect the universality classes. The extensive simulations on the hexagonal lattice reveal the power law behavior of the avalanche size distributions as the strength of the dipolar interactions and the random field are varied. Square and triangular lattices form high amplitude zigzag patterns due to the dipolar interactions.
  • Ojala, Heikki (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2007)
    This thesis integrates real-time feedback control into an optical tweezers instrument. The goal is to reduce the variance in the trapped bead s position, -effectively increasing the trap stiffness of the optical tweezers. Trap steering is done with acousto-optic deflectors and control algorithms are implemented with a field-programmable gate array card. When position clamp feedback control is on, the effective trap stiffness increases 12.1-times compared to the stiffness without control. This allows improved spatial control over trapped particles without increasing the trapping laser power.
  • Rahikkala, Antti (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2010)
    This thesis consists of two parts; in the first part we performed a single-molecule force extension measurement with 10kb long DNA-molecules from phage-λ to validate the calibration and single-molecule capability of our optical tweezers instrument. Fitting the worm-like chain interpolation formula to the data revealed that ca. 71% of the DNA tethers featured a contour length within ±15% of the expected value (3.38 µm). Only 25% of the found DNA had a persistence length between 30 and 60 nm. The correct value should be within 40 to 60 nm. In the second part we designed and built a precise temperature controller to remove thermal fluctuations that cause drifting of the optical trap. The controller uses feed-forward and PID (proportional-integral-derivative) feedback to achieve 1.58 mK precision and 0.3 K absolute accuracy. During a 5 min test run it reduced drifting of the trap from 1.4 nm/min in open-loop to 0.6 nm/min in closed-loop.
  • Karim Saurov, Shahriar (2018)
    To see the structure of a material different techniques have been used over the years and X-ray diffraction, a nondestructive method, is one of them. For investigating biological sample, X-ray diffraction (which is based on scattering of X-rays) is gaining popularity because of its higher penetration depth compared to other methods. For its ability to detect in the order of the atomistic scale, wide angle X-ray scattering (WAXS) is used in the study. Two reducing sugars, cellobiose, and melibiose, were chosen for this study to investigate the effect of change of parameters (temperature, stored humidity) on their amorphous to crystalline transition. The powder cellobiose and melibiose samples were freeze-dried, re-humidified and crystallinity were measured by WAXS method. For crystallization of sugar, glass transition temperature (Tg) is the most important parameter as it is the threshold temperature for crystallization. Water content and stored temperature have an inverse relation for amorphous to crystalline transition. Based on this X-ray diffraction study, it was found that water component, storage time and temperature have an important effect on the crystallization of cellobiose and melibiose. Amorphous cellobiose needs sufficient temperature or water content to start crystallizing, whereas, the storage time is more vital than water component and temperature for crystallization of melibiose. Amorphous cellobiose became completely crystal when the stored humidity was more than 44% or the temperature was 86°C or higher but, amorphous melibiose did not crystallize, even when the temperature was 120°C. Melibiose had shown a slow but gradual transition from amorphous to crystal state whereas crystallization of cellobiose was an all-in all out way with fast crystallization rate. Though X-ray scattering is an indirect method, it is robust, powerful, and rapid and in general, obtained results are unambiguous
  • Nolvi, Anton (2016)
    Mobile devices with interactive displays are ubiquitous commodities. Efficient quality control (QC) drives competitiveness. Scanning White Light Interferometry (SWLI) imaging offers fast and non-destructive QC. Relying on optical compensation and image stitching one can rapidly and cost-effectively produce sharp 3D-images of a display's inner structures with a few nanometers accuracy along the z-direction. As a practical example 3D images of a mobile device display revealed 0.92 ± 0.02 um height variation in the top glass assembly. The proposed method improves quality assurance of display manufacturing.
  • Liljander, Sara (2015)
    Tutkielman tarkoituksena oli tarkastella erilaisten digitaalisten suodattimien vaikutuksia aivojen keskilatenttisiin auditiivisiin tapahtumapotentiaaleihin ja löytää optimaaliset digitaaliset suodattimet P50-vasteen analyysiin. Tapahtumapotentiaalilla (Event-Related Potential, ERP) tarkoitetaan ulkoisen ärsykkeen valikoivan tarkkailun tai muun kognitiivisen prosessin aiheuttamaa hetkellistä muutosta aivojen sähköisessä toiminnassa. Tapahtumapotentiaalien mittaus perustuu elektroenkefalografiaan (Electroencephalography, EEG) eli aivohermosolujoukkojen synkronisten kalvojännitemuutosten mittaukseen. EEG mitataan pään pinnalle asetettujen elektrodien välisinä potentiaalieroina. Tapahtumapotentiaalit selittävät hermoradastojen toimintaa ja tarjoavat objektiivisen, ei-invasiivisen ja kustannustehokkaan menetelmän kognitiivisten toimintojen tutkimiseen. Auditiivisilla tapahtumapotentiaaleilla voidaan havaita puutoksia valikoivassa tarkkaavaisuudessa ja aivojen sensory gating -mekanismissa. Sensory gating -mekanismilla tarkoitetaan aivojen kykyä suodattaa toistuvia irrelevantteja aistiärsykkeitä ja sen uskotaan olevan yhteydessä aivojen kolinergiseen järjestelmään. Kolinergisen järjestelmän vaurioituminen on Alzheimerin taudin keskeinen ominaisuus jo taudin varhaisessa vaiheessa, ja siten auditiiviset tapahtumapotentiaalit voivat tarjota työkalun Alzheimerin taudin varhaisdiagnostiikkaan. Tapahtumapotentiaali on sekoittuneena aivojen spontaaniin toimintaan ja muuhun kohinaan. Tapahtumapotentiaalien signaali-kohinasuhteen parantamiseen käytetään digitaalista suodattamista. Termillä digitaalinen suodatin viitataan laajaan joukkoon tekniikoita, joissa yksinkertaisilla matemaattisilla operaatioilla vaimennetaan tai vahvistetaan haluttuja taajuuksia signaalien diskreettiaikaisissa esityksissä. Digitaaliset suodattimet voidaan jakaa kahteen luokkaan suodattimen impulssivasteen mukaan: äärellisen impulssivasteen FIR (Finite Impulse Response) -suodattimiin ja äärettömän impulssivasteen IIR (Infinite Impulse Response) -suodattimiin. Tapahtumapotentiaalien digitaalisella suodattamisella pyritään vaimentamaan taajuuksia, jotka pääosin sisältävät ei-aivoperäistä kohinaa tai koeasetelman kannalta epäolennaista informaatiota. Suodattaminen voi kuitenkin merkittävästi vääristää ERP-aallon aikaesitystä ja siten johtaa vääriin tulkintoihin; suodattimet voivat esimerkiksi muuttaa ERP-vasteen alkuajankohtaa, kestoa ja amplitudia sekä tuottaa teennäisiä oskillaatioita. Varhaiset ERP-vasteet, kuten P50-vaste, ovat erityisen herkkiä käytetyille suodatinasetuksille. Valitsemalla käytetyn suodattimen tyyppi ja parametrit huolellisesti tarkasteltavien komponenttien ja koeasetelman mukaan voidaan suodatinartefaktit minimoida ja havaita pieniä signaaleja, jotka ilman suodattamista jäisivät kohinan peittoon. Keskilatenttinen P50-vaste muodostuu pääasiassa aivojen nopeasta 40 Hz:n gamma-aktiivisuudesta ja vaatii siten eri suodatinasetukset kuin pitkälatenttisten vasteiden analyysi. P50-vasteeseen kohdistetusta laajasta mielenkiinnosta huolimatta ei kirjallisuudesta löydy yhdenmukaisia ja perusteltuja suosituksia sopivien suodattimien valintaan. Tutkielmassa tarkasteltiin kokeellisesti, millaisia vääristymiä erilaiset suodattimet ja suodattimien rajataajuudet aiheuttavat Alzheimerin tautia sairastavilta mitattuihin auditiivisiin keskilatenttisiin tapahtumapotentiaaleihin. Suodatintarkasteluun valittiin ikkunointimenetelmällä toteutettu FIR-suodatin, pienimmän neliövirheen FIR-suodatin ja äärettömän impulssivasteen Butterworth-suodatin, joista ikkunointimenetelmällä toteutetun FIR-suodattimen ja Butterworth-suodattimen todettiin aiheuttavan vähiten vääristymiä P50-vasteeseen. Tulosten perusteella optimaaliseksi ylipäästösuodatuksen rajataajuudeksi P50-vasteen analyysiin voidaan suositella 0,1–0,5 Hz:ä ja alipäästösuodatuksen rajataajuudeksi 80–90 Hz:ä.
  • Lahtinen, Merli (2014)
    Energiantuotannon riskit ovat koko ajan pinnalla keskustelussa ja maailma pyrkii vähitellen kohti vähempipäästöisiä energiamuotoja. Energiamuotojen välinen vertailu on kuitenkin vaikeaa ilman yhtenäisiä vertailukeinoja. Jotta energian tuotantoa voidaan muuttaa kohti vähäpäästöisempää yhteiskuntaa, täytyy sen nykyiset riskit tiedostaa hyvin. Työn tarkoituksena on tarkastella kuutta erilaista menetelmää tuottaa energiaa nimenomaan Suomen näkökulmasta. Tarkastelun alla ovat kivihiili-, ydin-, turve-, puu-, aurinko- ja tuulivoimalla toimivat energialaitokset. Eri energiamuodoille on tehty arvioita koko elinkaaren aikana syntyvistä päästöistä sekä riskeistä ympäristöön, yleisöön ja työntekijään. Työssä on käytetty kaikille voimalaitoksille samaa energiamäärää eli 0.7 gigawattivuotta, joka on tuotettavissa 1000 MW:n voimalaitoksella yhden vuodena aikana. Työntekijäriskejä on tarkasteltu menetettyjen työpäivien muodossa. Menetetyt työpäivät on saatu tutkimalla eri tapaturmatilastoja vakavuuden mukaan. Ympäristöriskejä on tarkasteltu päästöjen kautta. Yleisöriskinä on käytetty energiantuotantoketjun aikana syntyneiden pienhiukkasten aiheuttamia terveysvaikutuksia. Lopputuloksena on saatu jokaiselle energiamuodolle menetettyjä työpäiviä 0.7 gigawattivuotta kohden. Näin on luotu tapa, jolla energiamuotojen vertailu on mahdollista. Eniten työntekijäriskejä syntyy kivihiilivoimalla suuren kaivososuuden sekä polttovaiheen päästöjen aiheuttamien vaikutusten vuoksi. Vähiten riskejä sisältää ydinvoima, jonka työntekijäriskit ovat 12 % kivihiilen riskeistä. Biovoima tuottaa eniten pienhiukkaspäästöjä ja aiheuttaa suurimman yleisöriskin. Tutkimus perustuu laajaan taustatyöhön ja haastatteluihin eri energiatoimijoiden kanssa. Työssä on pyritty käyttämään mahdollisimman paljon Suomessa mitattuja arvoja eri päästöille.
  • Lehmonen, Lauri (2016)
    Sydänlihas liikkuu lyödessään kolmiulotteisesti, vuoroin supistuen ja rentoutuen. Vasen kammio on sydämen kammioista vahvin ja sen seinämä paljon oikeaa kammiota paksumpi. Sydämen tomografisen ja kolmiulotteisen liikkeen mallintamiseksi on kehitetty useita menetelmiä, joista sydämen seinämässä sijaitsevien yksittäisten pisteiden seuraamiseen vain magneettikuvaus on riittävän tarkka. Tagging on magneettikuvausmenetelmä, jonka avulla voidaan luoda magneettikuviin näkyviä viiva- tai ristikkokuvioita. Kuvion luonnissa käytetään hyväksi vety-ydinten magneettisia ominaisuuksia samoin kuin itse magneettikuvan luonnissakin. Tästä johtuen kuvio liikkuu sydänlihaksen liikkeen mukana ja tätä liikettä voidaan magneettikuvasarjoista seurata sekä visuaalisesti että erilaisilla analysointityökaluilla. Tämän työn tarkoituksena on esitellä tagging-magneettikuvauksen perusteita ja perehtyä tagging-kuvion kvantitatiiviseen analyysiin käyttämällä Harmonic Phase Flow (HPF) -analysointiohjelmaa. Työssä käsitellään tagging-magneettikuvauksen perusteita sekä esitellään matematiikkaa, johon HPF-algoritmi pohjautuu. Algoritmia käytetään yhdeksän terveen verrokin, kahdeksan nivelreumapotilaan ja kahdeksan fibromyalgiapotilaan tagging-analysiin. Analyysiohjelman avulla on kvantifioitu näiden henkilöiden sydämen vasemman kammion apikaalinen ja basaalinen kiertymä sekä näiden tasojen välinen vääntö. Tulokseksi saatiin (asteina) systolen lopussa eri ryhmien apikaaliseksi kiertymäksi, basaaliseksi kiertymäksi ja väännöksi: Terveet verrokit 4◦ ± 2◦, -1,8◦ ± 0,7◦ ja 6◦ ± 2◦; Nivelreumapotilaat 3,9◦ ± 1,3◦, -2,2◦ ± 1,5◦ ja 6◦ ± 2◦; Fibromyalgiapotilaat 5,1◦ ± 1,5◦, -1,8◦ ± 0,9◦ ja 6,9◦ ± 1,4◦. Tulosten perusteella systolen lopussa eri ryhmien välillä ei ole suuria eroja niin vasemman kammion kiertymässä kuin väännössäkään. Systolen alkuvaiheessa nivelreumapotilaiden basaalinen kiertymä on keskimäärin alhaisempi kuin muilla ryhmillä, minkä vuoksi myös vääntö systolen alkuvaiheessa on voimakkaampaa. Tässä työssä käytetty otos on kuitenkin pieni ja kattavien johtopäätösten tekemiseksi on analyysi tehtävä suuremmalle joukolle.
  • Kalliokoski, Milla (2018)
    Solar eruptions are key large-scale heliospheric structures that impact the terrestrial space weather, and may even harm technology both in space and on the ground. The processes triggering these eruptions are closely related to the magnetic field of the Sun and, in particular, to the complex evolution of the magnetic field in the solar corona. Therefore, comprehensive understanding of the coronal dynamics is required to be able to predict hazardous solar events. Since directly measuring the coronal magnetic field is difficult, the field evolution must be studied by alternative means, namely via data-driven modeling. One such model is the magnetofrictional method (MFM) which provides computationally efficient modeling, where photospheric magnetogram measurements are used to compute the time-dependent boundary condition. To evaluate the physical validity of the output of the MFM simulations, the modeled coronal evolution must be compared with actual solar observations. Observations at the extreme ultraviolet (EUV) and X-ray wavelengths show that the corona is populated by bright arcs of plasma. These structures – the coronal loops – are supported by closed magnetic field lines. Hence, coronal loops present a visual indication of the topology of the coronal magnetic field. Coronal loops exist especially in the so-called active regions which are the origin of solar eruptions. Observations of coronal loops and methods to numerically model them are presented in this thesis, in addition to discussing the formation, observation and modeling of coronal EUV emission. In this thesis, the performance of the MFM technique is assessed by investigating two inner coronal simulations of the same active region complex, employing different assumptions in the calculation of the boundary conditions. The simulations encompass a time period of four days on June 2012, when two Earth-directed coronal mass ejections (CMEs) are observed to erupt from the studied region. The model is compared with real coronal EUV observations via synthesizing mock coronal EUV images based on an ad hoc proxy for coronal EUV emission using a visualization toolkit created by the author. Realistic coronal emission cannot be directly computed from the MFM output, since the thermodynamic properties of the coronal plasma are not modeled. The degree of correspondence between synthetic and observed coronal EUV images is examined by visually considering the intensity structure and the connectivity of coronal loops in the images. Also the magnetic field topology in itself is investigated. While neither of the studied simulations produce eruptive loop structures associated with the observed CMEs, the other of the two simulations is found to qualitatively reproduce observed coronal loop structures and their evolution.
  • Granberg, Fredric (2012)
    Copper has been used for thousands of years in various fields as a pure metal or in many copper alloys. Copper also plays a crucial role in modern society with its high electric and thermal conductivity. To be able to also use this versatile material in the nanoindustry, its properties must be investigated. It has been found that nanomaterials have different properties compared with the macroscopic materials. One of the most important properties is the thermal stability of nanowires. The thermal stability of copper nanowires has to be known to be able to use copper wires in nanosized electronics without problems. Due to complications with experiments on the nanowires, this study uses atomistic computer simulations to investigate the thermal stability of copper nanowires. In the first study, the dependence between the wire diameter and the melting point was investigated. Also different shapes of the wires were studied. Three different wire shapes and diameters between 1.5 nm and 20 nm were investigated with a simulation method called molecular dynamics. This simulation technique uses classical Newtonian mechanics to simulate how the material behaves. The results were compared with a semi-empirical model called the liquid-drop-model, and the results are in a good agreement with this model. In the investigation of wires with the diameter 1 nm, a reconstruction was found. This reconstruction could spontaneously appear due to thermal vibrations in the wire. This phenomenon was investigated both by observing the spontaneous growth and by stretching the wire. A spontaneous reconstruction could be seen over a wide temperature range and a reconstruction due to stretching could be seen at almost all temperatures, even over the predicted melting point. The stability of the reconstruction was also investigated with a quantum mechanical simulation technique called density functional theory. These results predict that the reconstruction is stable or metastable.
  • Nieminen, Katja (Helsingin yliopistoUniversity of HelsinkiHelsingfors universitet, 2006)
    Tietokonetomografiatutkimusten (TT-tutkimusten) määrä on kasvussa, ja niistä aiheutuu merkittävä osa röntgentutkimusten väestölle aiheuttamasta kollektiivisesta annoksesta. Jotta potilaan saama säteilyannos voitaisiin määrittää tarkasti, luotettavasti ja vertailukelpoisesti, mittalaitteet on kalibroitava kansainväliseen mittausjärjestelmään jäljittyvällä tavalla käyttä-en sovittuja standardisäteilylaatuja. TT-laitteen annosmittauksissa käytetään erityisiä pitkiä sylinterin mallisia ionisaatiokammiota (TT-kammio eli DLP-kammio), joilla mitataan ilma-kerman ja pituuden tuloa. TT-kammioidenkalibrointiin ei ole ollut vakiintunutta menettelyä Säteilyturvakeskuksessa (STUK) eikä yleisesti hyväksyttyä kansainvälistä ohjetta. STUK osallistuu Kansainvälisen atomienergiajärjestön IAEA:n ohjeluonnoksen (2005) koekäyttöön. Tässä työssä oli tarkoitus testata ohjeessa esitettyä TT-kammioiden kalibrointimenetelmää sekä aikaisemmin julkaistuja menetelmiä, kehittää niiden pohjalta STUKille oma kalibrointikäytäntö ja testata sen toimintaa. Työssä tarkasteltiin erilaisia kalibrointimenetelmiä ja TT-kammion toimintaa. Mittausten perusteella päädyttiin menettelyyn, jossa kalibrointi suoritetaan mittaamalla TT-kammion vastetta kolmella erilevyisellä säteilykeilan lisärajoittimen aukolla. Kammion vasteen tasai-suutta voidaan lisäksi tutkia 1 cm:n levyisellä aukolla. Kalibrointikerroin saadaan vertaamal-la kalibroitavalla TT-kammiolla mitattuja tuloksia vertailumittarilla (mittanormaalilla) saa-tuihin tuloksiin. TT-kammion kalibroinnissa vertailumittari on sylinteri-ionisaatiokammio. Jos halutaan arvioida kalibroitavan TT-kammion efektiivistä pituutta, on kammion kalib-rointikerroin laskettava myös TT-kammiolla avokentässä tehtyjen mittausten perusteella. Työssä esitellyllä menetelmällä saadun kalibrointikertoimen kokonaisepävarmuus on 2,4 %. TT-laitteen annosmittaustilanteessa yksinkertaisinta on arvioida sopiva kalibrointikerroin pelkän putkijännitteen avulla, joka nostaa kalibrointikertoimesta tulokseen aiheutuvat kokonaisepävarmuuden 4,7 prosenttiin, sillä kalibrointikerroin riippuu sekä röntgenputken jännitteestä että säteilyn suodatuksesta.
  • Asmi, Ari (Helsingin yliopistoUniversity of HelsinkiHelsingfors universitet, 2000)
  • Pekkarinen, Antti (2016)
    Kaksiulotteiseen harmaasävykuvaan eli B-kuvaan perustuvat ultraäänitutkimukset ovat kaikista lääketieteellisistä ultraäänitutkimuksista yleisimpiä. B-kuvan tutkimusten kuvanlaatua heikentävät laitteistoviat voivat pahimmillaan johtaa väärään diagnoosiin. Ultraäänilaitteistolle on perusteltua tehdä laadunvarmistusta, jotta laitteistoviat voitaisiin havaita ennen kuin ne heikentävät B-kuvanlaatua kliinisesti merkittävällä tavalla. B-kuvan laadunvarmistusmenettely voi perustua testikappalekuvien visuaaliseen analyysiin ja laitteiston mittaustyökaluilla manuaalisesti tehtyihin mittauksiin. Visuaaliseen analyysiin ja manuaalisiin mittauksiin liittyy kuitenkin merkittävää, mittaajasta riippuvaa epätarkkuutta, minkä lisäksi niihin kuluu runsaasti työ- ja laitteistoaikaa. Vaihtoehtona kuvien visuaaliselle analyysille on olemassa analyysiohjelmistoja, joita käyttämällä voidaan mahdollisesti parantaa menettelyn objektiivisuutta, nopeuttaa mittauksia ja kuvien analyysia sekä helpottaa tulosten visualisointia ja raportointia. Tämän työn tavoitteena on perehtyä ultraäänilaitteistojen B-kuvan laadunvarmistukseen ja koota tutkittua tietoa siitä, millainen optimaalisen laadunvarmistusmenettelyn tulisi olla. Kirjallisuuskatsauksen antamaa kuvaa aiheesta täydennetään kokeellisella osuudella, jonka tavoitteena on tutkia ohjelmistolliseen kuvien analyysiin perustuvan menettelyn soveltuvuutta suuren laitteistojoukon laadunvarmistukseen. B-kuvan visuaaliseen ja ohjelmistolliseen analyysiin perustuvia laadunvarmistusmenettelyjä vertailtiin analysoimalla yhteensä 32 eri laitteistoon kuuluvien 74 eri anturin vuosittaisten laadunvarmistusmittausten kuva-aineisto molemmilla menetelmillä ja vertailemalla tuloksia visualisointisyvyyden sekä aksiaalisen ja lateraalisen erotuskyvyn osalta. Ohjelmistolliseen analyysiin perustuvan menettelyn optimoimiseksi tutkittiin kuva-alan tasaisuuden määrittämiseen käytettävien testikappalekuvien määrän sekä analyysissa käytetyn keskiarvokuvan kuva-alueen rajauksen vaikutusta tasaisuustuloksiin. Mittauksiin sopivien laitteistoasetusten määrittämiseksi tutkittiin lisäksi vahvistuksen ja kuvatason fokusalueen syvyyden vaikutusta ohjelmistollisesti määritettyyn kuuden desibelin vaimennuksen syvyyteen. Rinnakkaisanalyysin visualisointisyvyys- ja resoluutiotuloksissa havaittiin runsaasti hajontaa saman anturimallin eri anturiyksilöiden välillä. Myös eri menetelmien samalle anturille antamissa tuloksissa oli eroja. Kuva-alan tasaisuuden ohjelmistoanalyysiä varten riittävä tasaisuuskuvien määrä oli tämän työn tulosten perusteella 10 kuvaa. Sopiva suhteellinen kuva-alan rajaus oli anturityypistä riippuen joko 5 % tai 10 %. Kuuden desibelin vaimennussyvyys riippui voimakkaasti käytetyn vahvistuksen arvosta, kun käytetty vahvistus oli pieni. Suurilla vahvistuksen arvoilla vaimennussyvyys pysyi lähes vakiona. Fokussyvyyden tapauksessa kuuden desibelin vaimennussyvyys oli lähes vakio suurilla fokussyvyyden arvoilla ja muuttui jonkin verran fokussyvyyden pienemmillä arvoilla. Johtopäätöksenä todetaan, että saman anturimallin eri anturiyksilöille mitatut visualisointisyvyyden ja aksiaalisen sekä lateraalisen erotuskyvyn arvot eivät ole suoraan vertailukelpoisia keskenään. Myöskään samalle anturille eri menetelmillä mitatut tulokset eivät olleet keskenään vertailukelpoisia. Näin ollen mittaustuloksia kannattaa verrata samalle anturille samalla menetelmällä aiemmin tehtyjen mittausten tuloksiin. Kuvien ohjelmistolliseen analyysiin perustuva menettely on toistettavuudeltaan, objektiivisuudeltaan ja tehokkuudeltaan parempi kuin visuaaliseen analyysiin perustuva menettely. Tulosten pohjalta ehdotan ohjelmistolliseen analyysiin perustuvaa laadunvarmistusmenettelyä.