Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by Title

Sort by: Order: Results:

  • Salo, Jukka-Pekka (2020)
    User experience has become vital for many software development projects but the software development methods and tools are not originally intended for it. Moreover, software development is fundamentally complex and an increasingly social profession. This shift towards designing for user experience as a diverse group has brought new challenges to software development. The objective of this study is to find how developers and designers form a shared understanding of the software system UX under development. Central theme are the activities of UX work: what are the methods in use (e.g. User-Centered Design, Agile) and how do they work in practice, that is, what kind of information developers and designers share and what kind of artifacts do they produce in collaboration. This study answers two research questions: (RQ1) How do developers and designers form a shared understanding of the software system UX under development; and (RQ2) What are the artifacts utilized in their collaboration. To answer the research questions, a single case study research was conducted by interviewing the employees of a Finnish startup company. The company develops enterprise resource planning software (ERP) for rental businesses. The results show that shared understanding of the UX is achieved with UX activities throughout the system’s lifecycle where the user participation is required from the beginning of new software development. Furthermore, the artifacts in combination with developers’ participation in some of the UX activities will convey the design intent to the implemented software.
  • Suonperä, Ensio (2019)
    The motivation for the methods developed in this thesis rises from solving the severely ill-posed inverse problem of limited angle computed tomography. Breast tomosynthesis provides an example where the inner structure of the breast should be reconstructed from a very limited measurement angle. Some parts of the boundaries of the structure can be recovered from the X-ray measurements and others can not. These are referred to as visible and invisible boundaries. For parallel beam measurement geometry directions of visible and invisible boundaries can be deduced from the measurement angles. This motivates the usage of the concept of wavefront set. Roughly speaking, a wavefront set contains boundary points and their directions. The definition of wavefront set is based on Fourier analysis, but its characterization with the decay properties of functions called shearlets is used in this thesis. Shearlets are functions based on changing resolution, orientation, and position of certain generating functions. The theoretical part of this thesis focuses on studying this connection between shearlets and wavefront sets. This thesis applies neural networks to the limited angle CT problem since neural networks have become state-of-the-art in many computer vision tasks and achieved impressive performance in inverse problems related to imaging. Neural networks are compositions of multiple simple functions, typically alternating linear functions and some element-wise non-linearities. They are trained to learn values for a huge amount of parameters to approximate the desired relation between input and output spaces. Neural networks are very flexible function approximators, but high dimensional optimization of parameters from data makes them hard to interpret. Convolutional neural networks (CNN) are the ones that succeed in tasks with image-like inputs. U-Net is a CNN architecture with very good properties, like learning useful parameters form considerably small data sets. This thesis provides two U-Net based CNN methods for solving limited angle CT problems. The main focus is on method projecting model-based reconstructions such that the projections have the desired wavefront sets. The guiding principle of this projector network is that it should not change reconstruction already projected to the given wavefront set. Another network estimates the invisible part of the wavefront set from the visible one. Few different data sets are simulated to train and evaluate these methods and performance on real data is also tested. A combination of the wavefront set estimator and the projector networks were used to postprocess model-based reconstructions. The fact this postprocessing has two steps increases the interpretability and the control over the processes performed by neural networks. This postprocessing increased the quality of reconstructions significantly and quality was even better when the true wavefront set was given for the projector as a prior.
  • Heinonen, Arvo Arnoldas (2021)
    The goal of this work is to describe sheaves as an alternative to fiber bundles in geometric prequantization. We briefly go over geometric quantization of Euclidean space and make a connection with canonical quantization. After this, we look at the connections between covers of a topological space, Grothendieck topologies, and systems of local epimorphisms. Finally, we use these concepts to define sheaves and show how they can be used in prequantization in place of the more traditional fiber bundles to ensure the consistency of locally defined quantities.
  • Sandroos, Arto (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2005)
    Planeettainvälisessä avaruudessa havaitaan runsaasti Auringosta peräisin olevia korkeaenergiaisia hiukkasia. Havainnot voidaan jakaa karkeasti lyhyt- ja pitkäkestoisiin. Yleisin selitys jälkimmäisille on diffusiivinen shokkikiihdytys koronan massapurkausten edellään työntämissä shokkiaalloissa. Hiukkaset siroavat shokin turbulentista sähkömagneettisesta kentästä ja saavat lisää energiaa ylittäessään shokkirintaman monta kertaa. Kiihdytys alkaa koronassa ja jatkuu useiden päivien ajan massapurkauksen liikkuessa poispäin Auringosta. Havaintojen mukaan koronassa tapahtuva kiihdytys, jossa protonit voivat saavuttaa jopa 1 GeV suuruusluokkaa olevan energian, tapahtuu minuuttien aikaskaaloissa. Korkeaenergiaisten hiukkasten energiaspektri on tyypillisesti potenssilaki dN/dE ~ E^{-sigma}, missä sigma on lähellä ykköstä oleva vakio. Opinnäytteessä esitellään diffusiivisen shokkikiihdytyksen teoria ja tutkitaan kiihdytystä testihiukkassimulaatiolla. Koronan aktiivista aluetta mallinnetaan yksinkertaistetulla magneettikentällä. Simulaatiossa lasketaan tasomaisen shokin eteen injektoitujen protonien ratoja siihen asti, kun ne joko osuvat Auringon pintaan tai karkaavat planeettainväliseen avaruuteen. Lopputuloksista lasketuista statistiikoista etsitään kiihdytykseen vaikuttavia tekijöitä. Saatujen tuloksien perusteella koronan magneettikentän geometrialla on suuri merkitys saavutettavaan energiaan. Tehokkainta kiihdytys on geometrioissa, joissa shokki on lähes poikittainen. Erityisesti sironnan ei tarvitse olla voimakasta suurten energioiden saavuttamiseksi. Sen vaikutus näyttäisi olevan enneminkin jakaumafunktion isotropisointi, jolloin energiaspektristä tulee potenssilakimuotoinen.
  • Satukangas, Eetu Aatos Elmeri (2023)
    In this thesis we prove a short time asymptotic formula for a path integral solution to the Fokker Planck heat equation on a Riemannian manifold. The result is inspired by multiple developments regarding the theory of stochastic differential equations on a Riemannian manifold. Most notably the papers by Itô (1962) which describes the stochastic differential equation, Graham (1985) which describes the probabilistic time development of the stochastic differential equation via a path integral and Anderson and Driver (1999) which proves that Graham's path integral converges to the correct notion of probability. The starting point of the thesis is a paper by R. Graham (1985) where a path integral formula for the solution of the heat equation on a Riemannian manifold is given in terms of a stochastic differential equation in Itô sense. The path integral formula contains an integrand of the exponential of an action function. The action function is defined by the given stochastic differential equation and additional integration variables denoted as the momenta of the paths appearing in the integral. The path integral is defined as the time continuum limit of a product of integrals on a discrete time lattice. The result obtained in this thesis is proven by considering the saddle point approximation of the action appearing in the finite version of Graham's path integral formula. The saddle point approximation gives a power series approximation of the action up to the second order by taking the first and second variations of the action and setting the first variation as zero. We say that the saddle point approximation is evaluated along the critical path of the action which is defined by taking the first variation as zero. The second variation of the action is called the Hessian matrix. With the saddle point approximation of the action, we obtain an asymptotic formula of the path integral which contains the exponential of the action evaluated along the critical path and the determinant of the Hessian. The main part of the proof is the evaluation of the determinant of the Hessian in the continuum limit. To this end we prove a finite dimensional version of a theorem due to R. Forman (1987), called Forman's theorem, which allows us to calculate the ratio of determinants of the Hessian parametrized by two different boundary conditions as a ratio of finite dimensional determinants. We then show that in the continuum limit the ratio of determinants of the Hessian can be written in terms of the Jacobi ow. With the Forman's theorem we then get the short time asymptotic formula by evaluating the determinants on a short time interval.
  • Pesonen, Joonas Antero (2013)
    Hetkellisten tunnetilojen eli emootioiden roolia matemaattisessa ongelmanratkaisussa on tutkittu vähän. Yhtenä syynä tähän on ollut sopivan metodologian ja teoreettisen viitekehyksen puuttuminen. Tämän tutkimuksen lähtökohtana oli selvittää, sopiiko automaattinen emootioiden tunnistaminen kasvonilmeistä tutkimusmenetelmäksi matemaattisen ongelmanratkaisun tutkimiseen. Tutkimuksessa tutkittiin viiden lukiolaisen ongelmanratkaisuprosessia GeoGebra-matematiikka-ohjelmistolla ja prosessin aikana ilmeneviä emootioita. Tutkimuskysymyksinä oli, millaista on opiskelijoiden GeoGebra-avusteinen ongelmanratkaisutyöskentely ja miten emootiot ilmenevät ongelmanratkaisuprosessissa. Teoreettisena viitekehyksenä on matemaattisen ongelmanratkaisun osalta Schoenfeldin malli ongelmanratkaisuprosessin vaiheista ja päätöksentekokohdista. Emootioiden osalta tutkimus perustuu darwinistiseen traditioon nojaavaan Paul Ekmanin teoriaan, jonka mukaan tietyt perusemootiot (ilo, suru, viha, hämmästys, inho ja pelko) ja niiden ulkoiset ilmaisut (kuten kasvonilmeet) ovat universaaleja ja ovat kehittyneet evoluutioprosessin tuloksena. Tutkimuksen aineisto kerättiin koetilanteessa, jossa opiskelijat ratkaisivat ongelmatehtäviä kannettavalla tietokoneella. Ongelmanratkaisuprosessi tallennettiin ruuduntallennusohjelmistolla ja opiskelijan kasvoja videoitiin verkkokameralla. Lisäksi ongelmanratkaisutilanteen jälkeen opiskelijat katsoivat omaa suoritustaan videolta ja kertoivat, mitä ajattelivat ongelmanratkaisun aikana. Kasvovideot analysoitiin jälkikäteen FaceReader-ohjelmistolla, joka tunnistaa automaattisesti emootioita kasvonilmeistä. Tutkimuksessa havaittiin, että ongelmanratkaisuprosesseissa oli eroja eri opiskelijoiden välillä liittyen pääasiassa omien ratkaisuyritysten kontrollointiin sekä GeoGebra-työvälineiden käyttöön. Emootioiden osalta päätulos oli, että eri ongelmanratkaisun vaiheilla on erilainen emotionaalinen luonne — esimerkiksi tutkimisvaihe oli emotionaalisempi kuin analysointi- ja toteutusvaiheet. Tutkimuksen aikana tehtyjen havaintojen perusteella automaattinen emootioiden tunnistaminen kasvonilmeistä sopii tietyin varauksin matemaattisessa ongelmanratkaisussa ilmenevien emootioiden tutkimiseen.
  • Riiho, Katariina (2018)
    Matematiikan opiskelu lukiossa on syksystä 2016 lähtien alkanut kaikille opiskelijoille yhteisellä MAY1 -kurssilla ja vasta sen jälkeen on jakauduttu valinnan mukaan opiskelemaan joko pitkää tai lyhyttä matematiikkaa. Tämän uudistuksen myötä opiskelijoiden päätös matematiikan oppimäärän laajuuden valinnasta on siirtynyt yläkoulusta lukion puolelle. Tutkimukseni keskipisteenä oli lukion matematiikan kahden ensimmäisen kurssin välinen siirtymä. Pohjustan varsinaista tutkimusosuutta esittelemällä aluksi tehtävien luokittelun taustalla olevien tehtävätyyppien määritelmät. Lisäksi pohdin aiemman tutkimuksen valossa syitä matematiikan oppimäärän laajuuden valintaan, sekä oppikirjan osuutta tässä valintaprosessissa. Tutkimukseni tarkoituksena oli selvittää, kuinka oppikirjat tukevat opiskelijoiden siirtymisprosessia MAY1 -kurssilta lukion matematiikan 2. kurssille ja miten näiden kurssien oppikirjat eroavat toisistaan. Aloitan tutkimusosuuden erittelemällä Lukion opetusuunnitelman perusteiden 2015 pohjalta, kuinka SanomaPron, Otavan ja Editan MAY1 -kurssin oppikirjat tukevat opiskelijan siirtymistä joko pitkään tai lyhyeen matematiikaan. Lisäksi analysoin ja vertailen näiden kustantajien pitkän sekä lyhyen matematiikan 2. kurssin oppikirjoja. Vertailu pohjautuu oppikirjojen toisistaan poikkeaviin sisällöllisiin ja rakenteellisiin ominaisuuksiin, sekä niiden tehtävätyyppijakaumien eroihin. Luokittelin tehtävätyyppeihin oppikirjojen toisen asteen polynomifuktiota, toisen asteen yhtälöä ja toisen asteen epäyhtälöä käsittelevät harjoitustehtävät. Lopuksi pohdin, ovatko matematiikan 2. kurssin oppikirjojen eroavaisuudet samankaltaisia kuin ne olivat MAY1 -kurssin kohdalla. Keskeismpinä tuloksina havaitsin useamman askeleen tehtävien lisääntyneen MAY1 -kurssilta matematiikan 2. kurssille siirryttäessä kaikkien kustantajien erityisesti pitkän matematiikan oppikirjoissa. Suurin kustantajakohtainen muutos kurssien välillä tapahtui Otavan oppikirjoissa. Otavan sekä lyhyen että pitkän matematiikan 2. kurssin oppikirjoissa oli selkeästi suurempi prosentuaalinen osuus perinteisiä tehtäviä ja rutiinitehtäviä kuin sen MAY1 -kurssin oppikirjassa. Tehtävätyyppijakaumissa huomasin kurssien välillä muitakin muutoksia, mutta erot eivät olleet niin suuria. Pääosin kunkin kustantajan 2. kurssin oppikirjassa jatkettiin MAY1 -kurssilla aloitettua linjaa, mutta erot olivat tasoittuneet. Totesin myös kaikkien kustantajien MAY1 -kurssin oppikirjoissa olevan sekä pitkään että lyhyeen matematiikkaan siirtymistä tukevia ominaisuuksia, määrät toki vaihtelivat kustantajittain.
  • Rajala, Noora (2019)
    Fluori-18 on hyvin suosittu nuklidi PET-kuvantamisessa ja yhä useampi merkkiaine halutaan leimata sillä. Kaikkia molekyylejä ei kuitenkaan pystytä 18F-fluoraamaan perinteisillä menetelmillä tai niiden radiokemialliset saannot ovat olleet huonoja. Varsinkin aromaattisten renkaiden suora, yhdenvaiheen 18F-fluoraus on ollut synteesimenetelmillä vaikeaa tai lähes mahdotonta. Siirtymämetallivälitteisellä 18F-fluorauksella voidaan välttää perinteisen fluorauksen heikkouksia. Uusilla menetelmillä voidaan syntetisoida [18F]fluoridilla merkkiaineita, joita on aiemmin pystytty tuottamaan vain elektrofiilisellä [18F]F2-kaasulla. Tähän mennessä aryylien siirtymämetallivälitteistä 18F-radiofluorausta on tutkittu esimerkiksi palladiumillä, nikkelillä, hopealla, kuparilla ja ruteniumilla. Pro Gradu-työn tarkoituksena oli optimoida siirtymämetallivälitteisiä radiofluorausmenetelmiä (kupari ja rutenium) ja tutkia niiden toimivuutta. Synteesit tehtiin Turku PET-keskuksessa lyijykaapissa puoliautomatisoidulla synteesilaitteella ja radiokemialliset saannot analysoitiin käyttäen radio-HPLC:tä. Kuparivälitteisissä radiosynteeseissä [18F]fluoridi irrotettiin kuparitriflaatin ja litiumtriflaatin avulla ja mallisynteesinä käytettiin tert-butyyli-(1R,3S,5S)-3-((6-([18F]fluori-pyridiini-2-yyli)oksi)-8-atsabisyklo[3.2.1]oktaani-8-karboksylaatin ([18F]7) synteesiä. Ruteniumvälitteisissä synteeseissä pyrittiin tuottamaan kahta aivokuvantamisen radiomerkkiainetta: 5-(3-[18F]fluorifenyyli)-3-(((R)-1-fenyylietyyli)amino)-1-(4-(trifluori-metyyli)fenyyli)pyrrolidiini-2-onia ([18F]4), sekä N,N-dietyyli-2-(2-(4-[18F]fluorifenyyli)-5,7-dimetyylipyratsoli[1,5-a]pyrimidiini-3-yyli)asetamidia ([18F]6). [18F]7 synteesitulos saatiin 7 mg:n anioninvaihtopatruunalla, jolloin irrotusprosentti oli 56 % ja tuotteen radiokemiallinen saanto 83 %. [18F]4 synteesi optimoitiin onnistuneesti ja sen radiokemiallinen saanto oli 86,2 %. Synteesin kriittisiä vaiheita olivat tarpeeksi korkea lämpötila (T= 160 ℃) ja 1,3-bis(2,6-diisopropyylifenyyli)-2-kloroimidatsoliumkloridin lisääminen kuumaan kompleksoituun lähtöaine-rutenium-kompleksi-seokseen, jolloin se pystyi muodostamaan sidoksen lähtöaine-kompleksin kanssa ja auttamaan [18F]fluoridin nukleofiilisessä substituutio reaktiossa. Toisella ruteniumvälitteisellä synteesimenetelmällä valmistetun [18F]6:n synteesin tulokset olivat heikkoja (8,3 %).
  • Tornikoski, Paula (2017)
    Tutkielmassa tarkastellaan niitä asioita, joita vakuutusyhtiön tulisi ottaa huomioon hinnoitellessaan sijoitussidonnaisia vakuutustuotteita myytäviksi asiakkailleen. Pääkysymyksenä on, miten vakuutusyhtiö selviää tällaisistakin sopimuksista, vaikka sijoitusten ennustettavuus on heikkoa ja tuotot vaihtelevat satunnaisesti. Alussa käydään läpi kaavoja, joilla lasketaan sijoituksen arvoa vakuutetun kannalta sekä vakuutusyhtiön saamaa tuottoa sijoitussidonnaisesta henkivakuutuksesta. Sopimuksen tulee olla houkutteleva molempien osapuolten näkökulmasta, jotta sopimus syntyy. Todennäköisyys sille, että molemmat osapuolet hyötyvät taloudellisesti, tulee olla postitiivinen. Riskin mittaamisen näkökulmasta on valittu tarkemmin tarkasteltavaksi Monte Carlo -simulaatio sekä kaksi erilaista riskimittaria: Value at Risk –menetelmä sekä Conditional tail expectation –menetelmä. Tutkielmassa käydään läpi erilaisia mahdollisuuksia riskiltä suojautumiseen vakuutusyhtiön näkökulmasta katsottuna. Keinoja on useita ja tässä perehdytään tarkemmin jälleenvakuuttamiseen sekä riskin suojaamiseen sijoitusmarkkinoilla. Vakuutusyhtiö voi myös pitää suurta pääomareserviä tappioiden varalle, mutta tämä on kallista ja tehotonta. Sijoitusmarkkinoilla vakuutusyhtiö voi hyödyntää optioita, joita käydään laajemmin läpi. Optioiden hinnoittelussa keskeisiä malleja ovat binomimalli sekä Black-Scholes-Merton option hinnoittelumalli. Vakuutusyhtiö voi antaa asiakkailleen erilaisia tuottolupauksia korvauksista, joita asiakkaat saavat sijoitussidonnaisista henkivakuutuksista. Keskeisimmät korvaukset ovat kuolemantapauskorvaus sekä elämänvarakorvaus. Vakuutusyhtiön tulee selvitä näistä korvauksista ja lopussa käydäänkin läpi erilaisia näkökulmia vakuutusyhtiön strategiaksi. Möller, T. (2001) antaa pääasialliseksi vastaukseksi vakuutusyhtiön selviämiseen tällaisista sopimuksista suurten lukujen lain yhdistettynä oikeanlaiseen sijoitusstrategiaan. Käytetyimmät lähteet tutkielmassa ovat: Dickson, D., Hardy, M. and Waters, H. (2013). Actuarial Mathematics for Life Contingent Risks, 2nd edition, Campridge University Press, New York. Möller, T. (2001). Hedging Equity-Linked Life Insurance Contracts. North American Actuarial Journal 5: 79-95.
  • Eerola, Maiju (2017)
    Tutkielmassa käsitellään sitoumuksien suojausta ja etenkin sijoitussidonnaisten henkivakuutusten suojausta lokaalin riskin minimointiin perustuvalla menetelmällä diskreetissä ajassa. Sijoitussidonnaisen henkivakuutuksen tapauksessa vakuutuksenottaja sitoutuu maksamaan yhtiölle vakuutusmaksun yhdessä tai useammassa erässä ja vakuutusyhtiö vastaavasti sitoutuu maksamaan sovitulla hetkellä vakuutuksenottajalle korvauksen, jonka suuruus riippuu vakuutetun jäljellä olevasta elinajasta ja arvopaperimarkkinoiden kehityksestä. Markkinoilla oletetaan aina olevan yksi niin sanottu riskitön arvopaperi, jonka hinta on positiivinen jokaisella hetkellä. Muita arvopapereita kutsutaan riskillisiksi. Korvauksen määräämisperuste päätetään osapuolten välisessä sopimuksessa. Korvaus voisi esimerkiksi olla jonkin tietyn arvopaperin hinta korvaushetkellä, jos vakuutettu on tällöin elossa. Yhtiön tavoitteena on suojata tämä maksusitoumus sijoittamalla sopivasti markkinoilla oleviin arvopapereihin, jotka voivat olla esimerkiksi osakkeita tai valuuttoja. Tutkielmassa lähdetään tarkastelemaan sitoumuksen suojaamista lokaalin riskin minimointiin perustuvalla menetelmällä. Lokaalin riskin minimoinnilla tarkoitetaan tässä sijoitusvirheen keskineliöpoikkeaman minimointia, missä sijoitusvirhe on toiminnassa syntynyt kustannus kun sivukustannuksia kuten käsittelykustannuksia ei ole. Myös monia muita menetelmiä on olemassa, joten suojausmenetelmän valinnasta puhutaan lyhyesti. Tämän lisäksi esitellään lyhyesti myös muutama läheinen menetelmä muodostaa optimaalinen strategia sitoumukselle. Kaikki esiteltävät menetelmät ovat niin sanottuja kvadraattisia eli neliöllisiä suojausmenetelmiä. Työn päälähteenä on Hans Föllmerin ja Alexander Schiedin Stochastic Finance (2011), josta löytyy lisää tietoa kyseisistä menetelmistä ja sitoumuksien suojaamisesta. Ensimmäisessä luvussa esitellään arvopaperimarkkinamalli ja käydään läpi kyseessä olevan mallin oletukset sekä muutamia todennäköisyysteorian ja matriisilaskennan tietoja, joita tarvitaan myöhemmin toisessa luvussa, kun esitetään ja todistetaan lause, joka antaa samalla sekä riittävän että välttämättömän ehdon lokaalin riskin minimoivalle strategialle. Tämän lauseen avulla löydetään kaikki mahdolliset optimaaliset strategiat, kun optimaalisuuskriteeri on lokaalin riskin minimoiminen. Osoittautuu, että optimaalinen strategia on odotusarvoltaan omavarainen ja sen kustannusprosessi on vahvasti ortogonaalinen diskontatun hintaprosessin kanssa. Diskonttaustekijänä käytetään riskittömän arvopaperin hintaa. Kolmannessa luvussa esitellään sijoitussidonnaiset henkivakuutukset ja ratkaistaan lokaalin riskin minimoiva strategia sijoitussidonnaiselle elämänvaravakuutukselle siinä tapauksessa, että markkinoilla on vain yksi riskillinen arvopaperi. Viimeisessä luvussa käydään läpi yleinen tilanne, missä riskillisiä arvopapereita on mielivaltainen määrä ja suojattava sitoumus on sijoitussidonnainen henkivakuutus. Optimaalinen strategia saadaan tällöin helposti esitettävään muotoon.
  • Heino, Ville (Helsingin yliopistoUniversity of HelsinkiHelsingfors universitet, 2003)
  • Overton, Philip (2015)
    The acid-triggered formation of Silica-Polyelectrolyte (S–PE) nanocomposites prepared by condensation of poly(silicic acid) (PSA) in the presence of polyelectrolytes in aqueous solution is presented. Poly(2-(dimethylamino)ethyl methacrylate) (PDMAEMA) and block copolymers of DMAEMA and oligo(ethylene glycol) methyl ether methacrylate (OEGMA) were synthesized by Reversible Addition Fragmentation chain Transfer (RAFT) polymerization and fulfilled the role of weak polyelectrolytes used in S–PE composite formation. The strong polyelectrolyte poly(methacryloxyethyl trimethylammonium iodide) (PMOTAI) is prepared by quaternization of PDMAEMA. Quaternization of P(DMAEMA-block-OEGMA) is also achieved. The effect of polyelectrolyte strength, the OEGMA block and the polymer molecular weight on the formation of S–PE composites is assessed with respect to S–PE composites prepared using the PDMAEMA homopolymer. Water-dispersible and precipitate S–PE particles are prepared and analysed by Dynamic Light Scattering (DLS), Thermogravimetric Analysis (TGA) and Scanning Electron Microscopy (SEM). The size of the prepared water-dispersible S–PE composites is presented as a function of the solution pH at which the composite formation was achieved. Recent developments in the synthesis of silica-polymer nanocomposites and polymeric hybrids containing silicon are discussed. RAFT and Atom Transfer Radical Polymerization (ATRP) are presented as effective techniques for the synthesis of well-defined polymers used in the preparation of polymeric hybrids containing silicon. This research was conducted under the supervision of Dr. Vladimir Aseyev and MSc Erno Karjalainen in the Polymer Chemistry Laboratory of the University of Helsinki. The reported work was achieved within the wider aims of the ERA.Net RUS project entitled Bioinspired Synthesis of Silica Materials and Nanocomposites Based on Smart Polymers as Matrices, also known as SILICAMPS.
  • Lintala, Aino-Maija (2020)
    Polysiloxanes are silicon-based polymers consisting of R2SiO repeating units. They are commonly used in many commercial applications, for example, as adhesives, additives, or waterproof coatings. This thesis concentrates on polysiloxanes used as optically clear adhesives, which are needed in display applications to, for instance, bond cover lenses to touch panel sensors. This kind of a material needs to have a high refractive index to match glass or plastic, and it has to be transparent and thermally stable. In addition, it must resist degradation and yellowing from UV exposure and humidity. Anionic ring-opening polymerization was used to synthesize optically transparent polysiloxanes with varying side-groups. These polymers exhibited high refractive index values, which were adjusted by changing the amount of phenyl group -containing monomers or with chain terminating agents. End-functionalization reactions were performed for the synthesized polymers to introduce methacrylate groups to the chain ends, which could later be used in crosslinking trials involving a photoinitiator. The results present an effective synthetic route for the ring-opening polymerization for transparent, high refractive index poly(dimethylsiloxane-co-diphenylsiloxane) and poly(methylphenylsiloxane) that could be used as adhesives after selective chain end functionalization and crosslinking reactions. The properties of the synthesized polysiloxanes were characterized with several different methods, such as size exclusion chromatography, rheology, and NMR spectroscopy. End functionalization reactions were performed for some of the synthesized polymers. These were then further characterized to verify the suitability of the reaction.
  • Kuha, Marjo-Riitta (2013)
    Tutkielma aloitetaan esittelemällä joitakin lineaarialgebraan liittyviä käsitteitä ja tuloksia, joihin pohjautuen määritellään edelleen geometriset simpleksit. Tämän jälkeen näytetään, miten simplekseistä saadaan muodostettua simpleksisiä komplekseja (tai lyhyemmin komplekseja), määritellään kompleksien tausta-avaruudet ja tarkastellaan sekä kompleksien että niiden tausta-avaruuksien ominaisuuksia. Kaksi viimeksi mainittua, pääasiassa algebrallisen ja osin myös geometrisen topologian käsitettä, ovat tutkielman keskeisimpiä. Niistä kumpikin tulee konstruoiduksi neljän ensimmäisen luvun aikana. Sen lisäksi, että tausta-avaruudet ovat topologisia avaruuksia, kompleksit antavat niille erityisen rakenteen. Tutkielman viidennessä luvussa huomio siirretäänkin sellaisiin tausta-avaruuksien välisiin kuvauksiin, jotka tietyllä tapaa säilyttävät tämän rakenteen. Edelleen, luku 6 viimeistelee komplekseista johdettujen monitahokkaiden määritelmän ja luku 7 esittelee abstraktit simpleksiset kompleksit, jotka sisältävät täysin saman kombinatorisen tiedon kuin geometriset kompleksit. Tutkielman luvussa 8 määritellään huolellisesti simpleksiset homologiaryhmät, jotka ovat luonteeltaan algebrallisia ja nimensä mukaisesti laskettavissa komplekseista. Erityisesti homotopia-invarianttisuutensa johdosta homologiaryhmät ovat käyttökelpoisia työvälineitä useissa topologisissa ongelmissa. Kahdessa viimeisessä luvussa keskitytään tarkastelemaan, mitä tarkoittaa simpleksinen approksimaatio mielivaltaiselle jatkuvalle kuvaukselle. Lisäksi määritellään kompleksien barysentrinen alijako ja todistetaan sitä apuna käyttäen simpleksinen approksimaatioteoria, jonka mukaan jokaista kahden tausta-avaruuden välistä jatkuvaa kuvausta voidaan todella approksimoida luvussa 5 esitellyillä simpleksisillä kuvauksilla. Päälähteinä tutkielmassa on käytetty seuraavia teoksia: Jussi Väisälä, Quasiworld, Luentomuistiinpanot; Max K. Agoston, Algebraic Topology, A First Course ja James R. Munkres, Elements of Algebraic Topology.
  • Ovaska, Aino (2021)
    Cloud condensation nuclei (CCN) participate in controlling the climate, and a better understading of their number concentrations is needed to constrain the current uncertainties in Earth’s energy budget. However, estimating the global CCN concentrations is difficult using only localised in-situ measurements. To overcome this, different proxies and parametrisations for CCN have been developed. In this thesis, accumulation mode particles were used as a substitute for CCN, and continental proxy for number concentration of N100 was developed with CO and temperature as tracers for anthropogenic and biogenic emissions. The data utilised in the analysis contained N100 measurements from 22 sites from 5 different continents as well as CO and temperature from CAMS reanalysis dataset. The thesis aimed to construct a global continental proxy. In addition to this, individual proxies for each site (the site proxy) and proxies trained with other sites’ data (the site excluded proxy) were developed. The performance of these proxies was evaluated using a modified version of K-fold cross-validation, which allowed estimating the effect of dataset selection on the results. Additionally, time series, seasonal variation, and parameter distributions for developed proxies were analysed and findings compared against known characteristics of the sites. Global proxy was developed, but no single set of parameters, that would achieve the best performance at all sites, was found. Therefore, two versions of global proxy were selected and their results analysed. For most of the sites, the site proxy performed better than the global proxies. Additionally, based on the analysis from the site excluded proxy, extrapolating the global proxy to new locations produced results with varying accuracy. Best results came from sites with low concentrations and occasional anthropogenic transport episodes. Additionally, some European rural sites performed well, whereas in mountainous sites the proxy struggled. Comparing the proxy to literature, it performed generally less well or similarly as proxies from other studies. Longer datasets and additional measurement sites could improve the proxy performance.
  • Siekkinen, Aku (2019)
    We study a subcategory of topological spaces called polyhedrons. In particular, the work focuses on simplicial complexes out of which polyhedrons are constructed. With simplicial complexes we can calculate the homology groups of polyhedrons. These are computationally easier to handle compared to singular homology groups. We start by introducing simplicial complexes and simplicial maps. We show how polyhedrons and simplicial complexes are related. Simplicial maps are certain maps between simplicial complexes. These can be transformed to piecewise linear maps between polyhedrons. We prove the simplicial approximation theorem which states that for any continuous function between polyhedrons we can find a piecewise linear map which is homotopic to the continuous function. In section 4 we study simplicial homology groups. We prove that on polyhedrons the simplicial homology groups coincide with singular homology groups. Next we give an algorithm for calculating the homology groups from matrix presentations of boundary homomorphisms. Also examples of these calculations are given for some polyhedrons. In the last section, we assign an integer called the Lefschetz number for continuous maps from a polyhedron to itself. It is calculated using the induced map between homology groups of the polyhedron. With the help of Hopf trace theorem we can also calculate the Lefschetz number using the induced map between chain complexes of the polyhedron. We prove the Lefschetz fixed-point theorem which states that if the Lefschetz number is not zero, then the continuous function has a fixed-point.
  • Liuhto, Lauri (2014)
    The wheel has been reinvented several times in signaling protocols. Most signaling protocols re-invent, e.g., their own signaling transport methods, end-point discovery, measures for reliable exchange of messages and security features. Next Steps In Signaling (NSIS) framework was created in the IETF to design a single unified framework for various network signaling needs. The signaling transport layer of NSIS, the General Internet Signaling Transport (GIST), was specified in the IETF to provide a common transport service for signaling applications. The NSIS suite also includes two signaling protocols, NSIS Signaling Layer Protocols (NSLP), one for Quality of Service provisioning and one to configure middleboxes, in particular Network Address Translators and firewalls. The different signaling applications use GIST message delivery services through an API that consists of several operations. On top of common operations for sending and receiving data, the API also covers network events, errors and session state management. The API covers all GIST aspects, and allows application developers to have adequate knowledge of network state. However, as a result the API is very cumbersome to use, and an application developer needs to take care of non-trivial amount of details. A further challenge is that to create a new signaling application, one needs to acquire and register a unique NSLP identifier with the Internet Assigned Numbers Authority (IANA). This thesis presents the Messaging NSLP, that provides an abstraction layer to hide complex GIST features from the signaling application. Developers of Messaging Applications can use a simple Messaging API to open and close sessions and to transfer application data from one Messaging Application node to another. Prototype implementations of NSLP API and Messaging NSLP were created and tested to verify the protocol operation with various network scenarios. Overhead analysis of GIST and Messaging NSLP were performed, and results are compatible with earlier, third-party analysis. The Messaging NSLP can introduce up to 938 bytes of overhead to initiate a signaling session, but later signaling only introduces 78 bytes of header overhead.
  • Kormu, Anna (2020)
    First order electroweak phase transitions (EWPTs) are an attractive area of research. This is mainly due to two reasons. First, they contain aspects that could help to explain the observed baryon asymmetry. Secondly, strong first order PTs could produce gravitational waves (GWs) that could be detectable by the Laser Interferometer Space Antenna (LISA), a future space-based GW detector. However, the electroweak PT in the Standard Model (SM) is not a first order transition but a crossover. In so-called beyond the SM theories the first order transitions are possible. To investigate the possibility of an EWPT and the detection by LISA, we must be able to parametrise the nature of the PT accurately. We are interested in the calculation of the bubble nucleation rate because it can be used to estimate the properties of the possible GW signal, such as the duration of the PT. The nucleation rate essentially quantifies how likely it is for a point in space to tunnel from one phase to the other. The calculation can be done either using perturbation theory or simulations. Perturbative approaches however suffer from the so-called infrared problem and are not free of theoretical uncertainty. We need to perform a nonperturbative calculation so that we can determine the nucleation rate accurately and test the results of perturbation theory. In this thesis, we will explain the steps that go into a nonperturbative calculation of the bubble nucleation rate. We perform the calculation on the cubic anisotropy model, a theory with two scalar fields. This toy model is one of the simplest in which a radiatively induced transition occurs. We present preliminary results on the nucleation rate and compare it with the thin-wall approximation.
  • Suortti, Joonas (2020)
    Core galaxies are bright elliptical galaxies that contain a shallow central surface brightness profile. They are expected to form in mergers of massive gas-poor elliptical galaxies that contain supermas- sive black holes (SMBHs) in their respective centres. During the merger process, these black holes form a coalescing binary, which causes the ejection of stars from the centre of the galaxy merger in complex three-body interactions, resulting in the creation of a low-luminosity core. I have studied whether core galaxies can form according to the formation model described above. I analysed the results of seven galaxy merger simulations done using KETJU, a simulation code specifically made for studying the dynamics of supermassive black holes in galaxies. KETJU is a regularised tree-code, combining both the GADGET-3 tree-code and an AR-CHAIN integrator. This allows for the simultaneous simulation of both general galactic dynamics and accurate particle motion near black holes, respectively. All seven simulations consisted of a merger of two identical galaxies. Six of the simulations had galaxies with equal mass central SMBHs, where the mass of the black holes changed from one simulation to another, and ranged from 8.5 × 10 8 M to 8.5 × 10 9 M . For the sake of comparison, the galaxies in the seventh simulation did not contain SMBHs. The other properties of the merged galaxies were determined in such a way, that the resulting merger remnants would be as similar as possible to the well studied core galaxy NGC 1600. Naturally, these properties were identical across all of the simulation runs. By calculating the surface brightness profiles of the merger remnants in the simulation results, I found out that only simulations that contained SMBHs produced remnants with cores. Furthermore, I identified a clear positive correlation between the size of the core and the mass of the coalescing binary SMBH. Both of these results corroborate the theory, that the cores are formed by interacting SMBH binaries. This interpretation of the results was further enforced by the fact that, according to their velocity anisotropy profiles, stellar orbits near the centre of the remnants were tangentially dominated, implying that stellar particles on more radial orbits had been ejected from the system. I also generated 2D maps of the stellar line-of-sight velocity distributions in the simulated merger remnants. These maps showed kinematic properties similar to observed core galaxies, such as "kinematically distinct cores". Finally, I compared both photometric and kinematic properties of the simulated merger remnant containing the largest SMBH binary to the observed properties of NGC 1600. I found that the simulation and the observations agree well with each other. Since the properties of the simulated merger remnants follow theoretical expectations and is in general good agreement with the obser- vations, I conclude that the formation of the cores in bright elliptical galaxies is likely caused by coalescing binary black holes in dry mergers of elliptical galaxies.
  • Suortti, Joonas (2020)
    Core galaxies are bright elliptical galaxies that contain a shallow central surface brightness profile. They are expected to form in mergers of massive gas-poor elliptical galaxies that contain supermas- sive black holes (SMBHs) in their respective centres. During the merger process, these black holes form a coalescing binary, which causes the ejection of stars from the centre of the galaxy merger in complex three-body interactions, resulting in the creation of a low-luminosity core. I have studied whether core galaxies can form according to the formation model described above. I analysed the results of seven galaxy merger simulations done using KETJU, a simulation code specifically made for studying the dynamics of supermassive black holes in galaxies. KETJU is a regularised tree-code, combining both the GADGET-3 tree-code and an AR-CHAIN integrator. This allows for the simultaneous simulation of both general galactic dynamics and accurate particle motion near black holes, respectively. All seven simulations consisted of a merger of two identical galaxies. Six of the simulations had galaxies with equal mass central SMBHs, where the mass of the black holes changed from one simulation to another, and ranged from 8.5 × 10 8 M to 8.5 × 10 9 M . For the sake of comparison, the galaxies in the seventh simulation did not contain SMBHs. The other properties of the merged galaxies were determined in such a way, that the resulting merger remnants would be as similar as possible to the well studied core galaxy NGC 1600. Naturally, these properties were identical across all of the simulation runs. By calculating the surface brightness profiles of the merger remnants in the simulation results, I found out that only simulations that contained SMBHs produced remnants with cores. Furthermore, I identified a clear positive correlation between the size of the core and the mass of the coalescing binary SMBH. Both of these results corroborate the theory, that the cores are formed by interacting SMBH binaries. This interpretation of the results was further enforced by the fact that, according to their velocity anisotropy profiles, stellar orbits near the centre of the remnants were tangentially dominated, implying that stellar particles on more radial orbits had been ejected from the system. I also generated 2D maps of the stellar line-of-sight velocity distributions in the simulated merger remnants. These maps showed kinematic properties similar to observed core galaxies, such as "kinematically distinct cores". Finally, I compared both photometric and kinematic properties of the simulated merger remnant containing the largest SMBH binary to the observed properties of NGC 1600. I found that the simulation and the observations agree well with each other. Since the properties of the simulated merger remnants follow theoretical expectations and is in general good agreement with the obser- vations, I conclude that the formation of the cores in bright elliptical galaxies is likely caused by coalescing binary black holes in dry mergers of elliptical galaxies.