Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by Title

Sort by: Order: Results:

  • Saajasto, Mika Markus (2014)
    Recent studies suggest a population of dust grains exceeding the classical maximum grain size of 0.25 µm to be present in the denser regions of the interstellar medium. In this study, we examine the possibility of using scattered near- and mid-infrared light as an instrument to determine the properties of interstellar dust grains. We will be utilizing observations of the filament TMC-1N located in the Taurus molecular cloud complex with a wavelength coverage from 1.25 µm to 8.0 µm. The observations were made with the United Kingdom infrared telescopes (UKIRT) wide-field infrared camera (WFCAM), and with Spitzer space telescopes IRAC instrument. We have also used the COBE satellites DIRBE instrument, and observations from the WISE satellite to determine the strength of the background intensity towards our source. To analyse the observations, we use radiative-transfer calculations and Markov chain Monte Carlo computations on several different dust models with varying grain-size distributions and chemical compositions. The optical properties of the dust grains are based on the computations made by Li and Draine (The Astrophysical Journal, vol. 554, p. 778, 2001). The parameters we are studying are the maximum grain size of the dust grains, the size distribution of the grains, the strength of the radiation field towards the Taurus molecular cloud complex, and the optical depth of the TMC-1N filament. Comparing our simulations with the observations, a dust grain population with maximum grain sizes exceeding the classical 0.25 µm seems most probable. Our simulations also indicate that the grain size distribution favours smaller grains over the large ones, although the larger grains contribute a significant portion of the total dust mass. These changes in the grain population should also be seen in the observed thermal emission. Thus, for further studies on the topic, we would suggest methods that combine information gathered from infrared light scattering and emission studies.
  • Silvo, Jari (2023)
    Nykyajan sovelluskehityksessä on tarve julkaista uutta sovelluskoodia asiakkaiden nopeasti muuttuvien tarpeiden täyttämiseksi. Sovelluskoodia pyritään julkaisemaan tuotantoon nopeissa kehityssykleissä. Tämä asettaa haasteita ohjelmiston kehitykselle ja palvelutuotannolle. Moni- mutkaisten IT-infrastruktuurien siirtyminen pilvialustoille ja vaatimukset nopeille muutoksille aiheuttavat tarpeen ketterämmälle infrastruktuurin hallinnalle. Infrastruktuuri koodina -menetelmässä on pyrkimyksenä määrittää IT-infrastruktuuri koodi- na ja hyödyntää sovellusohjelmoinnin käytäntöjä infrastruktuurin hallinnassa. Infrastruktuuria pyritään ylläpitämään aiempaa johdonmukaisemmalla ja skaalautuvalla tavalla. Infrastruktuuri voidaan määrittää deklaratiivisilla tai yleiskäyttöisillä ohjelmointikielillä. Tut- kimuksessa on tarkoitus selvittää eroja deklaratiivisten määrittelytiedostojen ja yleisohjelmoin- tikielisten infrastruktuurisovellusten välillä infrastruktuurin hallinnassa. Työssä arvioidaan in- frastruktuurin hallintaan kehitettyä Pulumi-alustaa, joka tukee useita yleiskäyttöisiä ohjelmoin- tikieliä ja pilvipalveluita. Työssä etsitään ammattikirjallisuudesta ja tieteellisestä tutkimuksesta infrastruktuuri koodina -hallintaan liittyviä käytäntöjä. Tutkielman tapaustutkimus keskittyy Amazon Web Services - alustalle rakennettuun infrastruktuuriin käyttäen CloudFormation-työkalua. Tapaustutkimuk- sessa tarkastellaan nykyistä infrastruktuuri koodina -toteutusta sekä mahdollisuuksia tehostaa toimintaa käyttämällä Pulumia ja kirjallisuudesta löydettyjä käytäntöjä.
  • Kistol, Joanna (2024)
    Monoenergetic neutron reference fields are used in neutron metrology for the calibration of different neutron detectors, including dose rate meters. The International Standardization Organization ISO has composed guidelines and requirements for the production of narrow energy spread neutron fields using a particle accelerator. The objective of this Thesis was to investigate a target material that could be used to produce a monoenergetic neutron field by irradiating it with protons. A broader energy distribution was deemed satisfactory in regard to the initial phase of the station’s development, as significant modifications to the beamline would be necessary to acquire more precise beam current values and to achieve proton energies closer to the reaction threshold energy. The target material was chosen to be lithium fluoride (LiF) based on a literature review and Monte Carlo simulations. The simulations were executed with the proton energy of 2.5 MeV, which is close to the threshold energy of the 7Li(p, n)7Be reaction, and with the fixed energy 10 MeV of the IBA cyclotron used to conduct the experiment. The simulations were executed with the MCNP6 code, and the results were compared to those obtained from equivalent Geant4 simulations. The simulations suggested two wide peaks around 3 MeV and 0.6 MeV at the proton energy of 10 MeV. The irradiation experiment included two phases, one of which entailed the use of a shadow cone to estimate the number of scattered neutrons in the neutron yield. The maximum neutron fluence of (2.62 ± 0.78)∙109 s-1 was measured at the pop-up probe current of (8.3 ± 0.8) µA. Gamma spectrometry was utilized after the experiment to further evaluate the number of 7Li(p,n)7Be reactions taken place in the target by calculating the number of 7Be nuclei in the LiF plate. Altogether, lithium fluoride exhibits promising characteristics as a target material for accelerator-based monoenergetic neutron production, although its application demands further considerations regarding for instance, the decrement of the proton energy and the aiming and measurement of the proton beam. These results contribute to the future development of a neutron irradiation station at the University of Helsinki.
  • Benjami, Luolajan-Mikkola (2024)
    Context: Infrastructure as Code (IaC) extends the use of software engineering tools and methods to the management of compute infrastructure. Instead of performing changes manually, developers specify the desired state of infrastructure using text-based formats. IaC tooling is used to update the infrastructure to match these. Since the state declarations are text files like program source code, they can be stored in version control systems. IaC is currently widely used in public cloud environments but less common elsewhere due to lack of tooling. Objective: This thesis aims to identify how Infrastructure as Code support could be brought into arbitrary compute environments that do not support it out of the box. Method: Human-centric research methods such as polls and interviews are used to identify the key requirements for IaC systems. Based on these requirements, a functional prototype that can meet them in a variety of compute environments is built. The prototype is evaluated primarily by comparing it to the requirements and against other IaC systems. It is also tested by several users in a controlled setting. Results: This thesis presents Ink, a modular IaC system that has been designed to be deployed into arbitrary compute environments. A functional prototype of Ink has been implemented to validate the design. The prototype has passed the evaluation steps, indicating that Ink meets the key developer and organizational requirements. However, implementing IaC in this way requires substantial custom software development. Conclusion: IaC is not widely available outside of cloud environments, but adding support for it elsewhere is possible. Whether or not this is worth the development effort depends on the priorities and size of the organization that controls the compute environment.
  • Lindén, Greger (Helsingin yliopistoUniversity of HelsinkiHelsingfors universitet, 1990)
  • Heikkilä, Jesse (2022)
    Nanoformation of an active pharmaceutical ingredient (API) in controlled expansion of supercritical solution (CESS®) was studied in situ with a schlieren imaging technique in wide range of pre-expansion and expansion conditions, involving pressures up to 1000 bars. The optical methods allowed measurements on solvent state in the first micro and milliseconds of the expansion. Quantitative values on jet shape and solvent thermodynamic state were obtained for different nozzle configurations. These values, combined with mathematical modelling, enabled tracking the nanoparticle formation along the flow. We also report on the importance of solvent phase behavior demonstrated by three fundamentally different expansion schemes: supercritical (SC) to liquid/gas, SC to gas/liquid, and SC to SC. Scanning electron microscope images of the nanosized API are presented. This shows that one can have controlled particle formation by altering the thermodynamic conditions at the nozzle and changing the expansion path. The results guide the in-house process optimization and offer insight into the physics of supercritical fluid processing.
  • Rajala, Otto (2020)
    This thesis discusses the inner model obtained from the cofinality quantifier introduced in the paper Inner Models From Extended Logics: Part 1 by Juliette Kennedy, Menachem Magidor and Jouko Väänänen, to appear in the Journal of Mathematical Logic. The paper is a contribution to inner model theory, presenting many different inner models obtained by replacing first order logic by extended logics in the definition of the constructible hierarchy. We will focus on the model C* obtained from the logic that extends first order logic by the cofinality quantifier for \omega. The goal of this thesis is to present two major theorems of the paper and the theory that is needed to understand their proofs. The first theorem states that the Dodd-Jensen core model of V is contained in C*. The second theorem, the Main Theorem of the thesis, is a characterization of C* assuming V = L[U]. Chapters 2-5 present the theory needed to understand the proofs. Our presentation in these chapters mostly follows standard sources but we present the proofs of many lemmas in much greater detail than our source material. Chapter 2 presents the basics of iterated ultrapowers. If a model M of ZFC^- satisfies “U is a normal ultrafilter on \kappa” for some ordinal \kappa, then we can construct its ultrapower by U. We can take the ultrapower of the resulting model M1 and then continue taking ultrapowers at successor ordinals and direct limits at limit ordinals. If the constructed iterated ultrapowers M_\alpha are well-founded for all ordinals \alpha, the model M is called iterable. Chapter 3 presents L[A], the class of sets constructible relative to a set or class A. The hierarchy L_\alpha[A] is a generalization of the constructible hierachy L_\alpha. The difference is that the formulas defining the successor level L(\alpha+1)[A] can use A \ L_\alpha[A] as a unary predicate. The Main Theorem uses the model L[U], where U is a normal measure on some cardinal \kappa. Chapter 4 presents the basics of Prikry forcing, a notion of forcing defined from a measurable cardinal. The sequence of critical points of the iterable ultrapowers of L[U] generates a generic set for the Prikry forcing defined from the critical point of the \omega-th iterated ultrapower. Chapter 5 presents the theory of the Dodd-Jensen core model which is an important inner model. The core model is based on the Jensen hierarchy J_\alpha^A which produces L[A] as the union of all levels. The theory is concerned with so called premice which are levels of the J-hierarchy J_\alpha^U satisfying “U is a normal ultrafilter on \kappa” for some ordinal \kappa. A mouse is a premouse satisfying some specific properties and the core model K is the union of all mice. The last chapter presents the approach of the paper in detail. We present the definition of C(L*), the class of sets constructible using an extended logic L*, and the exact definition of C*. Then we present the proofs of the two major theorems mentioned above. The chapter naturally follows the paper but presents the proofs in greater detail and adds references to lemmas in the previous chapters that are needed for the arguments in the proofs.
  • Rantanen, Noora-Kaisa (2022)
    In chemical forensics inorganic analysis is for example used to detect traces of explosives and drugs, to find residues of firearms, and as aid when searching for hidden burial sites. Forensic investigators also utilise inorganic information in chemical source attribution or fingerprinting, which seeks to identify chemical profiles of inorganic and/or organic compounds and elements that can provide information on the origin of the sample, how it has been produced and using which raw-materials. As the chemical profiles typically contain information for several compounds, comparison of profiles have to be analysed by multivariate statistical tools such as principal component analysis (PCA), hierarchical cluster analysis (HCA) and linear discriminant analysis (LDA). In this work the applicability of inorganic source fingerprinting on soil samples was investigated. For this an extraction procedure and an ion chromatographic (IC) method for the determination of F–, Cl–, Br–, NO3–, PO43–, SO42– and AsO43– in soil were developed and validated. Extraction of anions was done by microwave assisted solvent extraction, with good recoveries (86.15 % – 115.23 %) for nearly all recovery samples. The recovery of F– from soil was 174.77 %, due to enhanced extraction efficiency caused by the high extraction temperature. AsO43– could not be quantified due to low extractability and interfering matrix components. Development of a method for elemental analysis of soil samples by inductively coupled plasma mass spectrometry (ICP-MS) was also attempted. Complete dissolution was not achieved with microwave assisted acid digestion mainly because of the large particle size of the soils analysed. Samples were analysed for As, Co, Cr, Cu, Fe, Mn, Mo, Ni, V and Zn, but Ni could not be quantified from any of the samples because of the high detection limit caused by contamination of samples. Due to contamination and incomplete dissolution the variation in the results were large, leading to a large uncertainty for the results. Analysis of variance (ANOVA) revealed that there is a significant (α = 0.05) difference in the concentrations of all analytes but Mo and V between the samples. Two step PCA and LDA were performed on tha anion and elemental results separately. Better clustering of sample results were typically got with LDA than with PCA. LDA on the anion results was able to discriminate all samples while only four out of seven samples were identified by PCA. The large variation in the data meant that only the reference soil could be identified when all elemental concentrations were included. Removal of outliers from the data lead to identification of all samples by both PCA and LDA. This work showed that samples can be identified by their inorganic profiles, but large variations in the measured concentrations will make the discrimination by multivariate statistics difficult. Further work should focus on improving the separation of the IC method and on decreasing the variation in the data by decreasing sample heterogeneity and contamination during the sample preparation.
  • Veira Canle, Daniel (2016)
    Propeller inspection is mandatory for the safe operation of aircraft. Non-contact damage evaluation on rotating structures requires dedicated measurement techniques. We report on a non-contacting stroboscopic technique that allows inspection of rotating aluminum propellers. To excite Lamb waves we used a Q-switched Nd:YAG laser in synchrony with data acquisition by a Laser Doppler Vibrometer. We detected, sized, and imaged a surface breaking notch on a sample rotating at 415 rpm. The technique showed potential for automatic non-contacting damage detection on rotating structures such as helicopter blades and turbines. The samples, manufactured at the Department of Physics of the University of Helsinki were aluminum blades 130 mm x 76.10 mm x 4 mm in size. One of them was used as a baseline while the other one had a surface breaking rectangular defect that was 5 mm x 10 mm x 2.4 mm in size, situated 35.10 mm from the center of the propeller. The propeller was rotated by a 12 V DC motor connected to a pulse width modulation circuit based on a 555 timer integrated circuit. To detect the movement of the rotating blade, a custom made optical gate was built by using common electronics such as blue LED, a LM311 comparator and a blue enhanced photodiode. All electronics were built in the Electronics Research Laboratory of the Department of Physics. Using C++ programming language we designed an algorithm for scanning the moving target. The code was implemented into an Arduino Mega 2560 microcontroller that was connected to a computer. The user operated the computer which controlled the microcontroller via a Labview program. Two types of scans of the samples were performed. In one type the TX scanned the blade from edge to center while the LDV pickup spot was stationary at the center. From this experiment we were able to determine the distance from the notch to the center of the blade and the length of the defect from time-of-flight measurements. The second type of scan was done by situating the LDV pickup point close to the center of the blade and the excitation point at the far side of it, close to the edge. This time we did not scan with the lasers but we divided the arc path that they follow into even steps. From this experiment we were able to determine the width of the notch as well as its depth based on time-of-flight analysis. The results agree with the expected values. Finally, by doing data selection of the delayed Lamb waves with Matlab R2015 and Blender 2.77a, we were able to do image reconstruction of the notch in a 3D model of the aluminum propeller.
  • Lindholm, Onni Valtteri (2015)
    Tässä työssä esitellään kosmisen mikroaaltotaustan analysointiin liittyviä menetelmiä ja erityisesti sitä, miten nämä menetelmät huomioivat instrumenttikohinan vaikutuksia. Päähuomio on Euroopan avaruusjärjestön 2009 laukaiseman Planck-satelliitin data-analyysissä tarvittavissa menetelmissä. Noin 380 000 vuoden ikäisesssä maailmankaikkeudessa syntynyt kosminen mikroaaltotausta on tärkein yksittäinen kosmologinen havaintoaineisto. Tämä säteily on suorin ikkuna hyvin varhaiseen maailmankaikkeuteen ja sen merkitys maailmankaikkeuden historian ja ominaisuuksien kartoittamisessa on ollut valtava siitä lähtien, kun se 1960-luvulla ensi kerran havaittiin. Tämän merkityksen korostamiseksi tutkielman alussa käydään läpi kosmologian teoreettista perustaa. Planck-satelliitin tuottama valtava datamäärä ja mittaustarkkuus muodostaa huomattavan haasteen datan käsittelylle. Rajallisten laskentaresurrsien vuoksi on kehitettävä tehokas, mutta samaan aikaan informaatiota mahdollisimman vähän hukkaava analyysiketju. Tärkeä huomioon otettava tekijä tässä kehitystyössä on mittalaitteissa esiintyvä kohina. Tämä kohina on luontevaa käsitellä samalla kun taustasäteilymittauksista muodostetaan säteilyä kuvaavia taivaankarttoja. Kohinan poistoon on kehitetty monia tehokkaita algoritmeja. Tästä huolimatta osa siitä jää väistämättä karttoihin ja tämän odotettavissa oleva vaikutus on otettava jatkoanalyysissä huomioon tieteellisten tulosten luotettavuuden varmistamiseksi. Tässä tutkielmassa käsitellään yksityiskohtaisesti sekä kohinan poiston että karttoihin jäävän kohinan kuvaamisen kannalta oleellisia seikkoja. Karttoihin jäävän residuaalikohinan kuvaamisessa tärkein työkälu ovat niin sanotut kohinan kovarianssimatriisit. Tätä tutkielmaa varten tuotettiin esimerkkejä näistä matriiseista ja tutkittiin näiden onnistumista kohinan kuvaamisessa numeeristen simulaatoiden avulla. Tässä havaittiin, että kovarianssimatriisien laatuun voidaan vaikuttaa merkittävästi valitsemalla näiden numeeriseen laskemiseen vaikuttavat parametrit oikein. Lopuksi tutkielmassa esitellään kohinan kovarianssimatriisien merkitystä taustasäteilyhavaintojen ja teoreettisten ennusteiden vertailussa. Ne kuvaavat kuinka suuren epävarmuustekijän instrumenttikohina tuo tähän vertailuun ja tämä osaltaan parantaa arviota siitä kuinka luotettavasti erilaiset teoreettiset mallit ovat mahdollisia tai pois suljettuja.
  • Mälkiä, Eetu (2023)
    Integraalilaskenta on merkityksellisessä roolissa Suomen lukioiden pitkän matematiikan opetussuunnitelman sisällöissä. Monet opiskelijat mieltävät integraalilaskennan yhdeksi lukion matematiikan haasteellisimmista aihepiireistä. Integraalilaskennassa tehtäviä virheitä ja muodostuvia virhekäsityksiä on tärkeää tutkia, jotta saadaan selville mistä muodostuneet virhekäsitykset ovat peräisin. Tässä tutkielmassa tarkastellaan kahta integraalilaskentaa käsittelevää ylioppilaskoetehtävää kahdelta eri koekerralta. Tehtävistä tarkastellaan oppilaiden tekemiä integraalilaskennan virheitä ja muodostetaan niiden pohjalta käsitys olemassa olevista virhekäsityksistä. Tehtävistä esitellään tämän lisäksi oppilaiden saamia pistekeskiarvoja ja arvioidaan niiden avulla tehtävien yleistä haasteellisuutta verrattuna kokeiden muihin tehtäviin. Tutkielma alkaa opetussuunnitelman integraalilaskennan osuuksien esittelyllä, jonka jälkeen käydään läpi integraalilaskenta matemaattisesti opetussuunnitelmassa esitettyjen sisältöjen osalta. Tutkielman neljännessä luvussa tarkastellaan virheen ja virhekäsityksen eroa matematiikassa sekä tarkastellaan integraalilaskennasta aiemmissa tutkimuksissa löydettyjä tyypillisiä virhekäsityksiä. Aiempien tutkimusten perusteella virhekäsitykset voidaan luokitella niille tyypillisten virheiden mukaan kolmeen virhekäsitysten kategoriaan; käsitteellisiin, proseduraalisiin ja teknisiin. Tutkimus päättyy johtopäätöksiin ja luotettavuuden arviointiin. Tutkimuksen perusteella ylioppilaskokelaat toteuttavat integroinnin mekanismia hyvin, mutta ilman syvällistä ymmärrystä integraalin käsitteestä. Syvemmän ymmärryksen puute voidaan havaita kokelaiden heikosta taidosta tunnistaa integroitavaa funktiota. Heikko taito tunnistaa integroitava funktio on yleisin syy tutkimuksen kokelasratkaisuissa johtaneisiin virheisiin. Kokelasratkaisujen perusteella havaitaan myös kokelaiden puutteellinen ymmärrys matemaattisten merkintöjen ja kirjainten merkityksestä, sillä niitä on käytetty väärin monin eri tavoin. Kokelaiden ymmärrys määrätyn integraalin käsitteestä ja toteuttamisesta vaikuttaa olevan hyvällä tasolla. Virhekäsitysten muodostumisen ehkäisemisen kannalta tutkimuksen tulokset ovat merkittäviä. Tutkimuksen tulokset eivät viittaa suoraan siihen, että virhekäsitykset muodostuisivat integraalilaskennan opiskelun aikana. Virhekäsitysten muodostuminen voi olla seurausta pidempi aikaisista puutteellisista opiskelu- tai opetusmenetelmistä.
  • Huttunen, Mikko (2013)
    Integraalilaskenta on yksi matematiikan kulmakivistä. Lukiossa sitä opetetaan osana pitkää matematiikkaa, jossa sille on varattu oma yksittäinen kurssinsa. Tutkielman Luvussa 1 tutustutaan alkuun, miten integraalilaskenta esiintyy lukion opetussuunnitelman perusteissa, jonka jälkeen Luvussa 2 esitellään lyhyesti erilaisia oppimiskäsityksiä. Edelleen Luvussa 3 tarkastellaan opetussuunnitelman perusteissa esiintyvien keskeisten käsitteiden määritelmiä ja niihin liittyvää teoriaa. Tutkielman päätarkoitus on analysoida lukion pitkän matematiikan oppikirjasarjoja integraalilaskennan osalta. Luvussa 4 tutkitaankin toisaalta kirjasarjojen eroavaisuuksia ja toisaalta suhdetta opetussuunnitelman perusteisiin ja Luvussa 3 annettuihin keskeisiin käsitteisiin. Lopuksi Luvussa 5 tehdään lyhyt yhteenveto. Integraalilaskenta rakentuu kahden peruskäsitteen, integraalifunktion eli määräämättömän integraalin ja määrätyn integraalin eli Riemannin integraalin varaan. Integraalifunktioita etsittäessä eli integroitaessa määritetään ne funktiot, joiden derivaattafunktio tarkasteltavalla reaalilukuvälillä tunnetaan. Määrätty integraali puolestaan on lähtöisin pyrkimyksestä määrittää epänegatiivisen, jatkuvan funktion käyrän kaaren ja x-akselin väliin jäävän alueen pinta-ala suljetulla reaalilukuvälillä. Tällaista aluetta voidaan arvioida suorakulmioilla jakamalla tarkasteltava väli osaväleihin ja valitsemalla kultakin osaväliltä sitten mielivaltainen piste, jossa lasketaan funktion arvo. Kun nyt ensin lasketaan osavälin ja edellä saadun funktion arvon tulo jokaisella osavälillä ja sitten summataan näin saadut tulot yhteen, niin saadaan erään suorakulmioista koostuvan monikulmion pinta-ala. Kun sitten kasvatetaan osavälien lukumäärää siten, että samalla pisimmän osavälin pituus lähenee nollaa, niin havaitaan geometrisesti, että saadaan mielivaltaisen tarkasti edellä tarkasteltavan funktion ja x-akselin välistä aluetta myötäilevän monikulmion pinta-ala. Jos vastaavaan raja-arvoon päädytään millä tahansa jaolla, jossa pisimmän osavälin pituus lähenee nollaa ja mielivaltaisella jonolla, jossa funktion arvot lasketaan, niin sanotaan, että funktio on integroituva ja edellä saatu raja-arvo on funktion Riemannin integraali yli tarkasteltavan välin. Määritelmä annetaan usein suljetulla välillä rajoitetulle funktiolle. Määritelmä voidaan antaa yhtäpitävästi niin sanottujen ala- ja yläsummien avulla, kuten tutkielman Luvussa 3 tehdään. Analyysin peruslause kertoo, että suljetulla välillä jatkuvan funktion Riemannin integraali on yhtä suuri kuin tarkasteltavan funktion jonkin integraalifunktion välin loppu- ja alkupisteessä saamien arvojen erotus. Edellä saadut käsitteet esiintyvät myös lukion integraalilaskennassa. Oppikirjasarjat käsittelevät määräämätöntä integraalia kutakuinkin samalla tavalla kuin yllä, mutta määrätyn integraalin esittelyssä on eroja: esimerkiksi kirjasarjat Pitkä matematiikka ja Laudatur antavat määrätyn integraalin määritelmän Analyysin peruslauseena, kun taas Matematiikan taito, Pyramidi ja Lukion Calculus käyttävät yllä kuvatun kaltaista lähestymistapaa. Kirjasarjoissa on muutenkin paljon eroavaisuuksia: esimerkiksi Matematiikan taito ja Pyramidi ovat muita huomattavasti teoreettisempia ja käyttävät paljon enemmän yliopistomatematiikan kaltaista notaatiota. Kaikki kirjasarjat vastaavat kuitenkin opetussuunnitelman perusteissa asetettuihin oppimistavoitteisiin ja keskeisiin sisältöihin.
  • Laatikainen, Veikko (2022)
    Tämän työn tarkoituksena on tutkia suomalaisten lukio-opiskelijoiden integraalilaskennan osaamista. Osaamista tutkitaan Ylioppilastutkintolautakunnalta saadulla datalla, joka sisältää pitkän matematiikan ylioppilaskokeiden tehtäväkohtaisia pisteitä aikaväliltä 2009–2021. Työssä esitellään hieman integraalilaskennan teoriaa ja perehdytään lyhyesti lukion integraalilaskennan kurssiin. Työn tutkimuksen pääasialliseksi kohteeksi valikoitui 19 pitkän matematiikan ylioppilaskoetehtävää, jotka olivat kaikki pääasiassa integraalilaskentaa sisältäviä. Näitä tehtäviä analysoitiin esimerkiksi niiden keskimääräisen ratkaisuprosentin avulla. Ratkaisuprosentti valittiin siitä syystä, että vuosien 2009 ja 2021 välillä tehtävien maksimipisteet ovat voineet olla 6, 9 tai 12 pistettä. Tehtävät luokiteltiin kolmeen luokkaan: perustehtävät, soveltavat tehtävät ja analyyttiset tehtävät. Jokaisen luokan sisällä tutkittiin, mitkä tehtävistä olivat niistä saatujen pisteiden perusteella helpoimpia ja mitkä vaikeimpia. Lisäksi tutkittiin sitä, miten tehtävän valinta vaikutti tehtävän osaamiseen. Tutkimuksessa verrattiin myös integraalitehtävien osaamista muihin pitkän matematiikan tehtävien osaamiseen. Tutkimuksen perusteella integraalilaskennassa opiskelijat hallitsevat parhaiten perustehtäviä ja soveltavia tehtäviä. Näiden tehtävien osaaminen on lähes yhtä hyvää. Kaikki soveltavat tehtävät liittyivät pinta-alan laskemiseen. Tutkimuksen perusteella voidaan sanoa, että integraalin ja pinta-alan yhteys on opiskelijoilla hallussa. Erityisesti puolisuunnikassäännön osaaminen oli muihin tehtäviin verrattuna hyvällä tasolla. Vaikeuksia aiheuttavat hankalien funktioiden, kuten murto- ja itseisarvofunktioiden, integrointi. Myös monissa analyyttisissä tehtävissä, joissa mitattiin esimerkiksi muiden matematiikan osa-alueiden yhdistämistä integraalilaskentaan, esiintyi niistä saatujen pisteiden perusteella vaikeuksia. Kaikissa matematiikan ylioppilaskokeissa on ollut tehtävien osalta valinnan varaa. Tutkimuksessa huomattiin, että tehtävän valinta ei välttämättä vaikuta tehtävän osaamiseen, kun otetaan huomioon kaikki integraalitehtävät. Kuitenkin pienen otoksen perusteella, kohtuullisesti tai paremmin osattuja tehtäviä valitaan enemmän. Integraalitehtävien osaaminen keskimäärin on tutkimuksen perusteella heikompaa kuin muiden ylioppilaskoetehtävien osaaminen keskimäärin. Tämä käy ilmi vertaamalla integraalitehtävien ratkaisuprosenttia kokeiden muihin tehtäviin. Vaikuttaisi siis siltä, että integraalilaskenta on keskimääräistä vaikeampi matematiikan osa-alue lukiolaisille.
  • Niemi, Sami (2013)
    Tämä pro gradu -tutkielma pyrkii tuomaan uusia ajatuksia matematiikan opetuksen ja opiskelun tueksi. Matemaattinen sisältö on suunniteltu lukion oppimäärää silmällä pitäen. Tutkielma käsittelee integraalikurssin opetusta ja lähestymistavaksi on valittu tehtävien kautta oppiminen. Tutkielmassa pyritään avaamaan lukiossa käsiteltävän integraalilaskennan teoriaa tehtävien keinoin. Tavoitteena on se, että opiskelijat oppisivat matematiikkaa ja sen teoriaa itsenäisesti laskemalla. Tutkielmassa on mukana avoimia ja suljettuja tehtäviä, jotka pyrkivät lisäämään käsitteellistä osaamista ja kokoamaan aihekokonaisuuksia yhteen. Tutkielmassa esitellään ensin avoimet ongelma-tehtävät ja paneudutaan niiden merkitykseen opetuksen näkökulmasta, jonka jälkeen siirrytään lukion integraalikurssin matemaattiseen sisältöön ja tehtävien pariin. Avoin tehtävä on matemaattinen tehtävätyyppi, jossa joko alku tai loppu on avoin tai molemmat ovat avoimia (Pehkonen, 2005). Ongelmatehtävä puolestaan on tehtävä, joka on sopivan haastava ratkaisijalleen. Matemaattisen ajattelun ja luovuuden kehittämisen menetelmänä tarjotaan usein ongelmaratkaisua (mm. Mason, Burton & Stacey 1982; Schoenfeld 1985; Stanic & Kilpatrick 1988). Avoimet tehtävät soveltuvat mainiosti haastamaan oppilaan ajattelua. Ne ajavat oppilaan tekemään itsenäisiä ja opetuksen näkökulmasta parhaimmillaan matemaattisia johtopäätöksiä koskien opiskeltavaa aihetta tai siihen liittyvää teoriaa. Opetuksen painopisteen muuttaminen opettajakeskeisestä luennoimisesta oppilaskeskeiseksi tuo mukanaan haasteita. Esimerkiksi voidaan epäröidä, opitaanko laskemalla myös matematiikan teoriaa itsenäisesti tai ryhmissä opiskelemalla. Tutkielma pyrkii vastaamaan teorian oppimisen haasteeseen tehtävien keinoin, jotka tutkielmassa on varta vasten luotu teorian oppimista varten. Tehtävät on pyritty rakentamaan niin, että ne olisivat sopivan haastavia ja sisältäisivät syvyyttä. Aihealueittain on pyritty luomaan hieman helpompia ja haastavampia tehtäviä. Tehtävät johdattelevat teorian äärelle tai syventävät jo olemassa olevien käsitteiden ymmärrystä. Oppilaita haastetaan piirtämään kuvia, esittämään ideoitaan, perustelemaan sanallisesti havaintojaan ja laskemaan. Avoimen tehtävän arvioiminen numeerisesti on haastavaa. Perinteinen suljettu tehtävä arvioidaan prosessin kautta. Tästä lähdettiin ja tänne päädyttiin; yksi lähtö ja yksi maali. Avoin tehtävä on monihaarainen ja sen arvioimisessa pitää mennä jossain mielessä kokonaisuuksien arvioimiseen.
  • Perälä, Harri (2023)
    Tässä työssä tutkitaan integraalitehtävien osaamista ennen ja jälkeen sähköisen ylioppilaskoeuudistuksen vuosina 2016-2020. Osaamista tutkitaan Ylioppilastutkintolautakunnalta saaduilla pistejakaumilla kyseisiltä vuosilta. Työn teoriaosuus sisältää, mitä integraalista opetetaan yliopistossa, sekä miten integraali näkyy kahdessa uusimmassa lukion opetussuunnitelmassa ja yhdessä oppikirjassa. Lisäksi tutustutaan aikaisempiin tutkimuksiin integraalin osaamisesta. Tutkielmaan rajatulla aikavälillä matematiikan ylioppilaskokeissa on ollut kuusi puhtaasti integraaliin liittyvää tehtävää, joista neljä on ollut ennen sähköistä ylioppilaskoeuudistusta ja kaksi jälkeen sähköisen ylioppilaskouudistuksen. Kaksi tehtävää on ylioppilaskokeen A-osion tehtäviä, kaksi B1-osan tehtäviä ja kaksi B2- osan tehtävää. Lisäksi työssä esitellään kaikki tehtävät ja esitellään jokaiselle tehtävälle yksi ratkaisutapa. Tutkimuksessa verrattiin A-osan tehtävien osaamista toisiinsa, B1-osan tehtävien osaamista toisiinsa ja B2-osan tehtävien osaamista toisiinsa pistejakaumien avulla, sekä verrattiin integraalitehtävien osaamista muiden matematiikan ylioppilaskokeen tehtävien osaamiseen. Integraalitehtäviä osattiin heikommin kuin muita matematiikantehtäviä. Tutkimuksessa huomattiin, että integraalitehtävät eivät olleet muuttuneet rakenteeltaan sähköisen ylioppilaskoeuudistuksen aikana ainakaan vielä. Sähköisistä apuvälineistä ei ollut ratkaisuissa erityistä hyötyä verrattuna aikaisempaan. Tutkimuksen luotettavuuteen vaikuttaa vähäinen otanta, sekä ylioppilaskokeiden tehtävien keskinäiset eroavuudet kirjoituskerroittain, sekä tehtäviin vastaajien vaihtuvuus
  • Lähteenmäki, Henry (2019)
    Tämän työn tarkoitus on helpottaa opettajia ja koulutusalan asiantuntijoita lähestymään Wilberin Integraaliteoriaa ja integraaliopetusta. Integraaliteoriaa viitekehyksenä käyttävä integraaliopetus on yksi varteenotettavimmista vaihtoehdoista tulevaisuuden integraaliseksi ja mahdollisimman kokonaisvaltaiseksi opetusmenetelmäksi. Teoria-osiossa käydään läpi Integraaliteorian teorian tausta ja kehitysvaiheet. Sitten esitellään Integraaliteorian tärkeimmät osapuolet: AQAL matriisi, Wilber-Combs hila ja Integraalinen Metodologinen Pluralismi. Seuraavaksi keskustellaan integraaliopetuksesta, sen tarpeesta ja tunnuspiirteistä, ja siitä miten integraaliopetuksessa tulisi huomioida Integraaliteorian tärkeimmät osapuolet. Lopuksi pohditaan opettajan roolia ja integraaliopetuksen haasteita. Työn empiirinen osa koostuu toukokuussa 2018 Meksikossa Tecnologico de Monterrey -yliopiston Tampicon kampuksella tehdystä kyselytutkimuksesta. Kysetutkimuksen tarkoituksena oli selvittää opiskelijoiden subjektiivisia asenteita, mielipiteitä ja kokemuksia integraaliopetuksesta. Vastauksille suoritettiin tilastollinen analyysi SPSS ohjelmistolla. Opiskelijat arvioiva integraaliopetuksen hyödyn korkeaksi oppimiselle ja opiskelulle. Heidän arvioiden perusteella myös integraalinen lähestymistapa elämää kohtaan ylipäätään arvioitiin hyödylliseksi. Integraaliopetuksen transformatiivinen potentiaali arvioitiin korkeaksi. Lisäksi opiskelijat pitivät integraaliopetuksen piirteitä ja tavoitteita tärkeinä opetukselle. Vertailuryhmien (sukupuoli, ikä, opintolukukaudet yliopistossa, lukion keskiarvo ja yliopiston keskiarvo) sisäisien ryhmien vastauksien tilastollista poikkeavuutta ei löytynyt. Täten, opiskelijat arviot integraaliopetuksesta olivat positiivisia riippumatta taustatekijöistä.
  • Kiviniemi, Annemari (2017)
    Kun käytännön ongelmia kirjoitetaan matematiikan kielelle, törmätään usein integraaliyhtälöihin, eteenkin fysiikan ja tekniikan parissa työskennellessä. Integraaliyhtälössä tuntematon, ratkaistava funktio on integraalin sisällä. Tässä tutkielmassa käsitellään integraaliyhtälöiden teoriaa operaattoriyhtälöiden muodossa. Työskennellessä inversio-ongelmien parissa käytössä oleva informaatio, data voi olla heikkoa tai liian vähäistä, jotta alkuperäisestä, ratkaistavasta ilmiöstä tai asiasta saataisiin riittävän oikeanlainen kuva. Ratkaisu ei välttämättä ole yksikäsitteinen, jolloin ratkaisun löytämiseksi on käytettävä regularisointia. Tässä tutkielmassa johdetaan Tikhonovin regularisointimenetelmä ja esitellään lyhyesti sen käyttöä ilmakehän kaasukoostumuksen määrittämisessä. Tutkielma alussa on kertauksenomaisesti tärkeitä käsitteitä vektori- ja normiavaruuksissa. Sen jälkeen paneudutaan erilaisiin operaattoreihin vektoriavaruuksissa. Viimeisenä asiana operaattoreista esitellään duaalinen systeemi ja todistetaan Fredholmin alternatiivi. Toisessa puoliskossa johdatellaan lukija huonosti määriteltyjen inversio-ongelmien pariin ja johdetaan Tikhonovin regularisointi. Näytetään myös, miten Tikhonovin regularisoinnin avulla voidaan konstruktoida ensimmäinen derivaatta häiriöisistä mittaustuloksista muodostetulle funktiolle. Tutkielman lopussa kerrotaan, miten ilmakehän koostumusta mitataan satelliitissa. Näytetään myös, miten Tikhonovin regularisointia voidaan käyttää kyseisten mittaustulosten analysoinnin yhteydessä.
  • Reiman, Tomi (2016)
    Cyberthreat intelligence is currently a hot topic in the information security community. Today's business models are forcing organizations to move into the cyberspace, and because of this they phase new threats. Organizations need to address these new threats in order to protect their systems from adversaries. One method for doing so is to develop a threat intelligence program, in which the organization actively gathers intelligence about current and emerging cyberthreats. Indicators of compromise can be used in organization's security infrastructure to look for and to prevent threats in near real-time. Indicators can be obtained from public intelligence feeds, and they can be shared in threat information sharing communities formed by organizations facing similar threats. Regardless of the source of threat intelligence, the intelligence should be evaluated by skilled security analysts to verify that the indicators of compromise suit the target environment. By sharing threat information organizations can benefit from security incidents seen by other organizations, and the participants can leverage the actionable intelligence to adjust their defenses before similar threats realize within their own network. Organizations can utilize purpose-built software to manage their threat intelligence. This supports the organization in developing its threat intelligence program. Threat information management platforms aid organizations in managing the quality and richness of threat intelligence and these platforms often come with information sharing capabilities built into the software, enabling organizations to share threat intelligence with each other. Organizations are able to distribute actionable intelligence into their security infrastructure more easily if they use a threat information management platform as the centralized point for managing the organization's threat intelligence. An example of an integration point is the organization's security information and event management (SIEM) system, which is often utilized by a security operations center (SOC) to perform analytics on the organization's log data. When the logs collected by a SIEM system are enriched with actionable intelligence security analysts are likely to see more informed alerts and less false positives. This thesis defines an integration between a threat information management platform and a SIEM.We measure and evaluate how much the integration reduces SOC's burden of manually importing threat intelligence into their monitoring infrastructure. Two questionnaires with SOC analysts were carried out for this purpose. We also evaluate how much integration fastens the deployment of actionable intelligence for detecting emerging threats. The evaluation is based on security incident ticket data obtained from a production SOC environment.
  • Gu, Chunhao (2021)
    Along with the rapid scale-up of biological knowledge bases, mechanistic models, especially metabolic network models, are becoming more accurate. On the other hand, machine learning has been widely applied in biomedical researches as a large amount of omics data becomes available in recent years. Thus, it is worth to conduct a study on integration of metabolic network models and machine learning, and the method may result in some biological discoveries. In 2019, MIT researchers proposed an approach called 'White-Box Machine Learning' when they used fluxomics data derived from in silico simulation of a genome-scale metabolic (GEM) model and experimental antibiotic lethality measurements (IC50 values) of E. coli under hundreds of screening conditions to train a linear regression-based machine learning model, and they extracted coefficients of the model to discover some metabolic mechanism involving in antibiotic lethality. In this thesis, we propose a new approach based on the framework of the 'White-Box Machine Learning'. We replace the GEM model with another state-of-the-art metabolic network model -- the expression and thermodynamics flux (ETFL) formulation. We also replace the linear regression-based machine learning model with a novel nonlinear regression model – multi-task elastic net multilayer perceptron (MTENMLP). We apply the approach on the same experimental antibiotic lethality measurements (IC50 values) of E. coli from the 'White-Box Machine Learning' study. Finally, we validate their conclusions and make some new discoveries. Specially, our results show the ppGpp metabolism is active under antibiotic stress, which is supported by some literature. This implies that our approach has potential to make a biological discovery even if we don't know a possible conclusion.
  • Lindström, Olli-Pekka (2021)
    Until recently, database management systems focused on the relational model, in which data are organized into tables with columns and rows. Relational databases are known for the widely standardized Structured Query Language (SQL), transaction processing, and strict data schema. However, with the introduction of Big Data, relational databases became too heavy for some use cases. In response, NoSQL databases were developed. The four best-known categories of NoSQL databases are key-value, document, column family, and graph databases. NoSQL databases impose fewer data consistency control measures to make processing more efficient. NoSQL databases haven’t replaced SQL databases in the industry. Many legacy applications still use SQL databases, and newer applications also often require the more strict and secure data processing of SQL databases. This is where the idea of SQL and NoSQL integration comes in. There are two mainstream approaches to combine the benefits of SQL and NoSQL databases:multi-model databases and polyglot persistence. Multi-model databases are database management systems that store and process data in multiple different data models under the same engine. Polyglot persistence refers to the principle of building a system architecture that uses different kinds of database engines to store data. Systems implementing the polyglot persistence principle are called polystores. This thesis introduces SQL and NoSQL databases and their two main integration strategies: multi-model databases and polyglot persistence. Some representative multi-model databases and polystores are introduced. In conclusion, some challenges and future research directions for multi-model databases and polyglot persistence are introduced and discussed.