Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by discipline "Applied Mathematics"

Sort by: Order: Results:

  • Piila, Erna (2016)
    The word tomography refers to a variety of imaging methods where a penetrating wave is used to collect data about an unknown object of interest. The waves usually need to be sent through the object from a large number of different angles in order to have enough data for a successful reconstruction. The problems can be expressed in a form where the measured data is known to be equal to the unknown object (expressed as a function) multiplied by a known operator. Reconstructing either a two-, three-, or in case of dynamic tomography, four-dimensional image based on data is not a simple matter of inverting said operator. The measurement noise, which is always a factor in imaging situations, can be amplified greatly in the reconstruction, making the inverse problem in question ill-posed. To avoid this, some regularization method in which a stable, unique problem close to the original, ill-posed one, needs to be applied. A method called Tikhonov regularization is one of the most commonly used ones. Discrete tomography differs from general tomography by limiting the objects or images being reconstructed to ones consisting of only a small set of different densities or colours. This a priori knowledge of the object makes it possible to make successful reconstructions based on a much smaller amount of data. Traditionally discrete tomography has only focused on making reconstructions of binary images but more recently algorithms have been developed that allow the number of different colours or densities to be as large as five. There are some very promising new algorithms in the field of discrete tomography but due to the requirements set by new applications, an ever-increasing number of researchers are working on new ones. In this thesis a small, simulated example of tomographic reconstruction is made using both Tikhonov regularization and DART (discrete algebraic reconstruction technique), which is an algorithm of discrete tomography. Both methods give reasonably good results in all of the situations that were studied. It is found, however, that for an image fulfilling the requirements for using DART (small enough number of different colours), DART performs significantly better when the number of projection angles is decreased.
  • Mikkola, Visa (2014)
    Satunnaisprojektio on menetelmä korkeaulotteisen datamatriisin X ∈ \R^{n × m} ulottuvuuksien vähentämiseksi. Menetelmässä alkuperäinen n-ulotteinen data kuvataan satunnaisista suunnista virittyvälle matalaulotteiselle, k << n, aliavaruudelle siten, että datavektorien väliset etäisyydet säilyvät approksimatiivisesti. Kuvauksen tekevän matriisin R∈ R^{k × n} alkiot voidaan valita esimerkiksi normaalijakaumasta ja siksi menetelmän laskennallinen toteutus saadaan hyvin kevyeksi. Tästä syystä monissa tutkimuksissa menetelmä on asetettu vastakkain perinteisen pääkomponenttianalyysin (engl. Principal component analysis, PCA) kanssa, joka on usein laskennallisesti huomattavasti vaativampi ulottuvuuksienvähentämismenetelmä. Samaa vastakkainasettelua käytetään tämän tutkielman satunnaisprojektiosta kertovassa johdantoluvussa, kun menetelmästä esitettyä teoriaa havainnollistetaan numeerisin testein. Satunnaisprojektion toimivuutta on jo tutkittu muun muassa kasvojentunnistuksen sekä kuva- ja tekstidatan ulottuvuuksien vähentämisen yhteydessä. Tutkielman pääaiheeksi on nostettu menetelmän sovellus käänteisongelmaan, jossa pyrkimyksenä on palauttaa tuntematon vektori x∈\R^n approksimatiivisesti siitä tehdyistä satunnaisista mittauksista, kun x oletetaan heikkoon kuulaan wlp(L) sisältyväks vektoriksi. Oletus tarkoittaa, että järjestettäessä vektorin x koordinaatit itseisarvoiltaan laskevaan järjestykseen, x_{arr}, suppenevat ne kohti nollaa kuulan sädettä L > 0 ja suppenemisparametria 0 < p < 1 noudattaen seuraavasti: |x_{arr}| ≤ L · l^{-\frac{1}{p}}, kun, 1 ≤ l ≤ n. Tutkielma seuraa Emmanuel Candèsin ja Terence Taon artikkelissaan Near-Optimal Signal Recovery From Random Projections: Universal Encoding Strategies? (2006) antamaa ratkaisua ongelmalle: heikkoon kuulaan wlp(L) sisältyvän vektorin x ∈ R^n ja mittausmatriisilla R ∈ R^{k× n} tehdyistä mittauksista Rx \ell_1-optimoinnilla palautetun ratkaisun ˆx välinen virhe noudattaa ylärajaa \lTwo{x-ˆ x } ≤ C_{p, α} · L · (\frac{k}{β})^{\frac{1}{2}-\frac{1}{p}}. Ylärajassa C_{p, α} on vakio ja β käytettyyn mittausmatriisiin liittyvä parametri. Tulosta ei siis suoraan johdeta yksittäiselle mittausmatriisityypille, vaan annettaan ominaisuudet, jotka omaavaa matriisia voidaan mittausmatriisina käyttää. Tukielmassa erikseen todistetaan normaalijakaumasta kehitetyn satunnaismatriisin sopivan mittausmatriisiksi parametrin β arvolla log n. Tällä matriisivalinnalla teoriaa myös esitellään numeerisesti. Esitelty virheen yläraja ja muut ongelmaa koskevat tulokset johdetaan tutkielmassa suoraan lineaarialgebran ja todennäköisyyslaskennan perusteista tuoden aiheen siten helpommin lähestyttäväksi; alkuperäisen artikkelin todistuksissa useat päättelyt on jätetty vaille tarkempia yksityiskohtia.
  • Karvonen, Toni (2014)
    Kalmanin suodin ja sen approksimatiiviset yleistykset epälineaarisille systeemeille ovat stokastisten dynaamisten systeemien tilaestimoinnin perustyökaluja. Oleellinen kysymys näitä suotimia käytettäessä on, ovatko ne jossakin mielessä stabiileja. Lineaarisella Kalmanin suotimella on vahvoja eksponentiaalisia stabiilisuusominaisuuksia, mutta epälineaarisille Kalmanin suotimille osoitetut stabiilisuustulokset ovat hyvin heikkoja. Näiden tulosten tarkentaminen ja vahvistaminen on avoin tutkimuskohde. Tässä tutkielmassa esitellään lineaarisen Kalmanin suotimen merkittävimmät stabiilisuustulokset ja olemassa olevat tulokset epälineaarisille Kalmanin suotimille. Lineaarisen Kalmanin suotimen stabiilisuus vaatii säätötekniset oletukset systeemin havaittavuudesta (englanniksi detectability) ja stabiloituvuudesta. Nämä oletukset mahdollistavat epäoptimaalisen lineaarisen tilaestimaattorin, johon liittyvä virhekovarianssimatriisi on rajoitettu, konstruoimisen, jolloin Kalmanin suotimen lineaarisen minimivarianssin ominaisuutta voidaan hyödyntää. Varsinaisessa stabiliisuustodistuksessa käytetään erästä Ljapunovin stabiilisuusteorian yleistystä. Epälineaarisista Kalmanin suotimista tutkielmassa käsitellään pääasiassa laajennettua Kalmanin suodinta ja hajustamatonta Kalmanin suodinta. Molemmille suotimille todistetaan stokastisia stabiilisuustuloksia erittäin tiukin oletuksin, jotka eivät mahdollista stabiilisuuden toteamista etukäteen. Tulokset saadaan erään stokastista stabiilisuutta koskevan lemman melko suoraviivaisella soveltamisella, vaikkakin hajustamattomalle Kalmanin suotimille todistettaviin tuloksiin vaaditaan myös eräiden approksimaatioiden muuntamista yhtälöiksi diagonaalisten satunnaismatriisien avulla. Hajustamatonta Kalmanin suodinta koskevat tulokset voidaan yleistää kaikilla epälineaarisille Kalmanin suotimille (tai gaussisille suotimille). Nämä tulokset ovat kuitenkin hyvin kvalitatiivisia ja niiden ainoa konkreettinen anti on kohinakovarianssimatriisien virittämisen vaikutuksen selventäminen, mistä tutkielmassa esitetään muutamia yksinkertaisia numeerisia esimerkkejä. Tutkielman lopussa kartoitetaan eräitä mahdollisesti lupaavia menetelmiä, joita ei ole tähän mennessä käytetty epälineaaristen Kalmanin suotimien stabiilisuuden tutkimiseen. Näitä menetelmiä ovat Fourier'n-Hermiten sarjakehitelmä ja teleskooppisummamenetelmä, jonka avulla on aikaisemmin tutkittu partikkelisuotimien tasaista konvergenssia.
  • Gerasin, Minna (2015)
    Vakuutusyhtiö sitoutuu suorittamaan asiakkaan maksamaa vakuutusmaksua vastaan korvauksen vahingon sattuessa. Nämä kaksi rahavirtaa, korvaukset ja vakuutusmaksut, muodostavat kaksi merkittävää kassavirtaa vakuutusyhtiön toiminnassa. Näiden lisäksi vakuutusyhtiön toimintaan liittyy myös muita rahavirtoja. Tässä tutkielmassa otetaan huomioon korvausten ja vakuutusmaksujen lisäksi sijoitustoiminnasta saatavat tuotot. Näin ollen vakuutusyhtiön taloudellinen tulos riippuu vakuutustoiminnan lisäksi siitä, miten tuottavasti yhtiö sijoittaa varansa markkinoille. Vakuutusyhtiön vuosittaisena perusliikkeenä kuvataan nettotappioliike, joka muodostuu vuoden aikana korvattavan kokonaisvahinkomäärän ja saatujen vakuutusmaksujen erotuksesta. Jokaisen vuoden alussa vakuutusyhtiö sijoittaa varallisuudestaan kiinteän osuuden riskillisiin arvopapereihin ja loput riskittömään bondiin. Riskittömän bondin koron oletetaan olevan positiivinen ja kiinteä. Sen sijaan riskillisiin arvopapereihin liittyvä tuottoaste oletetaan stokastiseksi. Arvopapereiden hintojen muutoksista johtuen sijoitussalkku vaatii uudelleen allokoinnin vuosittain. Tässä tutkielmassa kiinnostuksen kohteena on arvioida ja ennustaa, miten vuosittain vakuutus- ja sijoitustoiminnasta syntyvät kassavirrat kumuloituvat ajan mittaan. Diskonttaamalla vuosittainen liike nykyhetkeen voidaan arvioida vaatimusta tarvittavalle alkupääomalle, jolla vararikon todennäköisyys pitkällä aikavälillä on riskien hallinnan näkökulmasta riittävän pieni. Tässä tutkielmassa diskontatun nettotappioliikkeen oikeaa häntää arvioidaan satunnaisyhtälön avulla saatavan teorian valossa. Diskontatun nettotappioliikkeen häntätodennäköisyyksiä estimoidaan teoreettisten tulosten avulla ja verrataan näin saatuja häntätodennäköisyyksiä simuloidusta aineistosta laskettujen häntätodennäköisyyksien kanssa. Lisäksi tarkastellaan, miten normaalijakauma vastaavin parametrein sopisi häntätodennäköisyyksien arviointiin. Vertailua tehdään erilaisissa sijoitusympäristöissä, joissa sekä riskillisiin arvopapereihin sijoitettavan varallisuuden osuus että stokastisen koron parametrit vaihtelevat. Tutkielmassa tarkasteltavan teorian mukaisesti vuosittaisen nettotappioliikkeen jakauman säännöllisesti vaihteleva oikea häntä periytyy myös diskontatun nettotappioliikkeen jakaumalle, kun ajassa mennään kohti äärettömyyttä. Esimerkeissä huomataan, että ainakin tietyissä tilanteissa teorian mukainen estimaatti häntätodennäköisyyksille sopii hyvin kuvaamaan myös simuloidun aineiston häntätodennäköisyyksiä. Sen sijaan normaalijakauman käyttö häntätodennäköisyyksien arvioinnissa johtaa selkeästi suurempiin häntätodennäköisyyksiin, jonka seurauksena tarvittavan alkupääoman määrä on suurempi kuin simuloidun aineiston perusteella näyttäisi olevan tarpeen. Toisaalta esimerkeissä tulee vastaan myös tilanteita, joissa teoreettinen tulos vaikuttaisi pätevän vasta riittävän kaukana diskontatun nettotappioliikkeen jakauman oikean hännän alueella. Tällainen tilanne voi syntyä esimerkiksi nettotappioliikkeen jakauman parametrioletusten vuoksi tai esimerkiksi silloin, kun riskillisiin bondeihin sijoitettavan varallisuuden osuus on pienehkö.
  • Sieviläinen, Sanni (2015)
    Sähkö on olennainen osa nyky-yhteiskuntaa. Muista hyödykkeistä poiketen sähköä ei voida varastoida vaan se täytyy toimittaa tietyn kauden tai ajanhetken ajan. Tämän ominaisuuden takia sähkön hinnoittelu poikkeaa muiden hyödykkeiden hinnoittelusta. Sähkömarkkinat kehittyvät jatkuvasti ja tämä kasvattaa johdannaisten kysyntää ja täten myös niiden hinnoittelun tarvetta. Tämän tutkielman tarkoituksena on esitellä sähkön hintamalleja jotka sekä heijastavat sähkön hinnan ominaisuuksia että soveltuvat johdannaisten hinnoitteluun. Käsittelemme sähkömarkkinoiden yleisimpiä tuotteita ja niiden hinnoittelua erilaisia malleja hyödyntämällä. Tutkielma on jaettu seitsemään lukuun. Ensimmäinen luku on johdanto. Toisessa luvussa käsittelemme pohjoismaisia sähkömarkkinoita ja tuotteita joilla käydään kauppaa niin sähköpörssissä kuin sen ulkopuolella. Kolmannessa luvussa esittelemme tutkielman kannalta oleellisia esitietoja additiivisten prosessien stokastisesta analyysistä, jota tarvitaan sähkön hinnan mallintamiseen. Neljännessä luvussa esittelemme stokastisia prosesseja sähkömarkkinoiden spot-hinnan mallintamiseen. Spot-hintaa käytetään referenssinä johdannaissopimusten hinnoittelussa ja on täten tärkeä niiden hintadynamiikkojen mallintamisessa. Sähkömarkkinoiden spot-hinnan ominaisuuksien vuoksi käytämme Ornstein-Uhlenbeck prosessia joka on keskiarvoon hakeutuva prosessi joka sisältää hyppyjä. Määrittelemme usean muuttujan malleja, jotka perustuvat ei-Gaussisten Ornstein-Uhlenbeck prosessien summaan sekä hitaammin keskiarvoon hakeutuviin prosesseihin, joita ajaa Brownin liike. Käsittelemme sekä geometrisiä että aritmeettisiä malleja. Viidennessä luvussa käsittelemme forwardien ja futuurien hinnoittelua spot-hinnan perusteella. Hyödynnämme Girsanov ja Esscher muunnosta geometrisen forward hinnan määrittelemiseksi. Luvussa kuusi esittelemme forwardi- ja futuuri-sopimusten hinnoittelua Heath-Jarrow-Morton menetelmällä. Hinnoittelumallin mukaan hintadynamiikka mallinnetaan suoraan tilastoja hyödyntämällä spot-hintamallin käyttämisen sijaan. Luvun lopussa käsittelemme LIBOR markkinamalliin perustuvaa menetelmää futuuri-sopimusten hinnoitteluun. Tutkielman viimeisessä kappaleessa käsittelemme sähköoptioiden hinnoittelua ja suojausta. Keskitymme eurooppalaisiin optioihin joissa kohde-etuutena on joko forward- tai futuuri-sopimus. Käsittelemme erikseen malleja. jotka sisältävät hyppyjä ja malleja, jotka eivät sisällä hyppyjä. Kun mallit sisältävät hyppyjä käytämme Fourier muunnosta hinnoittelussa. Analysoimme optioiden hintadynamiikkaa sekä derivoimme delta suojauksen useille malleille ja optioille. Tutkielman lopuksi tarkastelemme sekä aasialaisia että hajonta optioita jotka ovat sähkömarkkinoille relevantteja eksoottisia optioita.
  • Kainulainen, Saara Susanna (2016)
    Tämän opinnäytetyön tarkoituksena on johtaa ja analysoida pariutumismalli, jossa kahden erillisen ryhmän yksilöt tapaavat toisiaan sattumalta ja tapaamisen yhteydessä joko päättävät muodostaa liiton molemmin puoliseen hyväksyntään perustuen, tai jatkaa kumppanin etsintää pariutumatta. Pohjalla käytetään Steve Alpernin ja Diane Reyniersin 2004 esittelemää mallia, joka on esitelty myös tämän työn neljännessä kappaleessa. Kiinnostava ero mallien välillä on oletuksissa, joiden perusteella malli rakennetaan: Alpern ja Reyniers olettivat yksilöiden pariutuvan mieluiten kunnoltaan parhaan vastakkaisen ryhmän yksilön kanssa. Tässä työssä tarkoituksena on tutkia tilannetta, jossa jokaisella yksilöllä taas on omat mieltymyksensä sen suhteen, kenen kanssa mieluiten pariutuu. Ero tekee malleista huomattavan erilaiset paitsi matemaattisesti, myös sovellusalueiltaan. Varsinaisen pariutumisongelman pariin johdatellaan tutustuen ensin yleisesti peliteoriaan esimerkkien kautta. Ensimmäisenä esimerkkinä tutustutaan ehkä peliteoriassa eniten tutkittuun peliin, vangin ongelmaan. Ongelma käsittelee lyhyesti sanottuna yhteistyön tekemisen kannattavuutta. Kun peliteorian peruskäsitteistö ja toimintatapa on tuttu, jatketaan etsintäteoriaan, jonka pohjalta pariutumisteoria on luotu. Etsintäteorian ongelmat on käytännössä tiivistettynä optimaalisen pysähtymisen ongelmia ja näistä ongelmista yhteen, optimaalisen parkkipaikan löytämisen ongelmaan ratkaisuineen tutustutaan. Sen jälkeen jatketaan pariutumisteorian pariin ja tutustutaan muutamaan algoritmiin, joiden avulla ongelmia on tapana ratkaista. Kun tutuksi on tullut munuaistensiirtoon liittyvä algoritmi ja yksinkertainen algoritmi avioliitto-ongelman ratkaisuun, on aika siirtyä varsinaisen ongelman mallintamiseen. Ensin tutustutaan Alpernin ja Reyniersin malliin ja sen jälkeen luodaan oma malli ja tutkitaan minkälainen strategia on mallin kannalta optimaalinen. Lopuksi pohditaan vielä minkälaisten todellisen maailman tilanteiden mallintamiseen malli sopii ja miten sen tulokset vertautuvat aiemmin esiteltyyn malliin.
  • Grekelä, Tanja (2014)
    Tutkielmassa tarkastellaan suhteellista jälleenvakuutusta ja sen optimaalisuutta. Erityisesti keskitytään osamääräjälleenvakuutukseen (Quota Share) ja ylitejälleenvakuutukseen (Surplus). Jälleenvakuutus on yhtiön keino suojata vakuutussalkkunsa suuriksi kasvavilta tappioilta. Lisäksi jälleenvakuuttamalla osa tai kaikki vakuutukset voi yhtiö välttyä vararikolta. Suhteellisessa jälleenvakuutuksessa niin vakuutusmaksut kuin korvausmaksutkin on jaettu ensi- ja jälleenvakuuttajan välillä ennalta sovitussa suhteessa. Tuota suhdelukua tarkastelemalla voidaan selvittää milloin jälleenvakuutus on optimaalisin. Tutkielman rakenne on seuraavanlainen. Aluksi esitetään tutkielman lähtökohdat ja sen seuraamisen kannalta oleelliset käsitteet ja määritelmät. Tämän jälkeen tarkastellaan vakuutuskantaa ja sen approksimointia. Sitten siirrytään tarkastelemaan suhteellista jälleenvakuutusta ja esitetään osamäärä- ja ylitejälleenvakuutukset. Optimaalisimman jälleenvakuutussuhteen löytämiseksi käytetään RORAC-kriteeriä. Selvitetään, millainen jälleenvakuutus on kannattavin ensivakuuttajan kannalta. Tuloksia tarkastellaan esimerkin avulla. Yhden riskiluokan tarkastelun jälkeen laajennetaan laskut koskemaan useampaa riskiluokkaa. Myös tätä tarkastellaan esimerkin avulla. Lopuksi tutkielmassa esitetään de Finettin metodi optimaalisimman rajan löytämiseksi.
  • Lod, Patrik (2015)
    Digitaalisella kuvalla on resoluutio, joka määrittää sen koon. Resoluutiota voi suurentaa ja samalla parantaa kuvan laatua menetelmällä, jota kutsutaan superresoluutioksi. Superresoluutioalgoritmeja on useita ja ne toimivat eri tavalla. Tässä tutkielmassa käydään läpi kolmen eri superresoluutioalgoritmin toiminta läpi ja näytetään, miten nämä algoritmit toimivat kahdelle kuvalle sekä verrataan niitä keskenään. Tutkielmassa ensiksi käydään läpi tarvittavaa taustateoriaa. Luku kaksi alkaa määrittelemällä digitaalisen kuvan ja kuinka tietokone käsittelee kuvia. Samalla esitellään kuviin liittyvää peruskäsitteistöä kuten (R,G,B)-väriavaruus. Seuraava kappale kertoo, miten värikuva muunnetaan (R,G,B)-väriavaruudesta harmaasävykuvaksi, koska kaikki tässä työssä esiteltävät algoritmit suoritetaan harmaasävykuville. Tämän jälkeen luvussa kaksi esitellään tässä työssä käytettävät lähdekuvat ja kuinka ne on otettu. Ensiksi esitellään, millä kameralla kuvat on otettu, missä formaatissa ja missä tiloissa. Sitten kerrotaan hieman kuvattavista kohteista ja esitellään valitut kuvat, joille algoritmit suoritetaan. Luvussa kaksi esitellään kuvien jälkeen työssä käytettävät superresoluutioalgoritmit. Ensiksi esitellään kaksi yksinkertaisempaa menetelmää superresoluution saavuttamiseksi. Nämä molemmat ovat kaksiulotteisia interpolaatioita diskreetille datalle, joten niitä voi käyttää digitaalisille kuville. Ensiksi esitellään Bilineaarinen interpolaatio, joka yksinkertaisesti laskee painotetun keskiarvon interpoloitaville pikseleille lähimmästä neljästä pikselistä. Seuraavaksi esitellään bicubic-interpolaatio, joka on kaksiulotteinen jatke cubic-interpolaatiolle. Bicubic-interpolaatio toimii hyvin samankaltaisesti bilineaarisen interpolaation kanssa, mutta saa aikaan hieman tasaisempia tuloksia. Kolmantena algoritmina esitellään harvoihin esityksiin perustuva superresoluutioalgoritmi, joka hyödyntää opetettavia kirjastoja. Luvussa kaksi esitellään nopeasti, mitä ovat opetettavat kirjastot, harvat esitykset ja monet muut algoritmissa tarvittavat komponentit. Luvun kaksi lopussa esitetään SSIM samankaltaisuusmitta, jolla algoritmien tuloksia arvioidaan. Luvussa kolme esitellään algoritmeilla saadut tulokset luvussa kaksi esitetyille kuville. Luvussa kolme on myös kirjattu taulukkoon samankaltaisuusmitan antamat tulokset jokaiselle algoritmille. Luvussa neljä on analysoitu näitä tuloksia ja tehty johtopäätöksiä algoritmien paremmuusjärjestyksestä. Huomaamme, että perus interpolaatiot eivät yllä yhtä hyviin tuloksiin kuin viimeisenä esitelty algoritmi, jonka tulokset ovat yllättävän hyviä. Nopeudessa taas interpolaatiot, varsinkin bilineaarinen interpolaatio, todetaan olevan paljon nopeampia kuin harvoihin esityksiin perustuva superresoluutioalgoritmi. Huomioimme myös, mitä isommiksi kuvat suurennetaan sitä heikommin ne toimivat. Huomaamme myöskin sen, kuinka bilineaarinen interpolaatio toimi kaksinkertaisella suurennoksella paremmin kuin bicubic-interpolaatio, mutta nelinkertaisella suurennoksella taas bicubic-interpolaatio toimi paremmin näistä kahdesta.
  • Nyandoto, Eveliina (2014)
    Työssäni käsitellään suurten poikkeamien teoriaa, erityishuomiona Cramérin lause. Työn tavoitteena on sekä esitellä suurten poikkeamien matemaattis-teoreettista tulkintaa että pyrkiä tuomaan esiin hyödyllisiä sovelluskohteita erityisesti vakuutus- ja finanssimatematiikan näkökulmasta. Työn aluksi määritellään momentit generoiva funktio, karakteristinen funktio ja kumulantit generoiva funktio, sekä esitetään yksinkertaisia esimerkkejä gamma-jakautuneelle satunnaismuuttujalle. Näiden määritelmien avulla muodostetaan edelleen Legendre-Fenchel-transformaatio, jonka on tärkeä käsite suurten poikkeaminen teorian ymmärtämiseksi. Legendre-Fenchel, eli konveksiin konjuganttimuunnokseen viitataan usein tässä yhteydessä nimellä vauhtifunktio. Todennäköisyysmitta ja σ-algebra, sekä ehdollisen odotusarvon määritelmät esitetään lyhyesti tukemaan Cramérin lauseen syvempää ymmärtämistä. Suurten poikkeamien teoriaa käytetään esimerkiksi todennäköisyysteorian piirissä tutkittaessa asymptoottisten häntätodennäköisyyksien kulkua. Sen avulla tutkitaan suurten lukujen lain suppenemisvauhtia. Tässä työssä tarkemman tarkastelun kohteeksi on otettu Cramérin lause, jonka todistus esitetään yksityiskohtaisesti. Todistuksessa käytetään hyväksi muun muassa Chebychevin epäyhtälöä, mittamuutosta sekä Lebesguen monotonista suppenemisteoriaa. Työn lopuksi käsitellään lyhyesti luottoriskillisiä sijoituskohteita ja niiden analyysiä. Työssä esitetään muutamia peruskäsitteitä luottoriskillisten sijoituskohteiden sekä niitä koskevien sijoituspäätösten ymmärtämisen tueksi. Numeerisessa esimerkissä havainnollistetaan aiemmin esitetyn teorian sovellusta yrityslainamarkkinaan. Tarkastelun kohteena ovat Euroopan ja Yhdysvaltojen markkinat, sekä talouden syklit nousu-, huippu-, lasku- ja lamakausi. Muodostamalla high yield ja investment grade -sijoitusluokkiin kuuluvia yrityslainoja sisältävä sijoitussalkku ja tutkimalla sen luottotapahtuman yhteydessä aiheuttamia tappioita päästään näkemään suurten poikkeamien teorian tulkintaa käytännössä.
  • Isojärvi, Juha-Antti (2014)
    Tutkielmassa todistetaan suurten poikkeamien periaate satunnaisessa ympäristössä kulkevan satunnaiskulun nopeudelle. Tutkielma koostuu teoriaosasta ja sovellusosasta. Teoriaosa käsittelee suurten poikkeamien teoriaa siltä osin, kuin sitä tarvitaan sovellusosan päätuloksen todistamiseen.
  • Djupsjöbacka, Viktor (2014)
    Symbolisk integrering innebär att hitta den obestämda integralen till en given funktion f, dvs. att hitta en sådan funktion g att g(x) = ∈t f(x) dx. Den här avhandlingen behandlar det specialfall där integranden f är en rationell funktion, vilket betyder att f kan skrivas som kvoten av två polynom. I kapitel 2 introduceras den grundläggande algebra som vi behöver. I kapitel 3 stiftar vi bekantskap med Euklides algoritm för att hitta den största gemensamma delaren, samt utvecklar algoritmer för lösning av diofantiska ekvationer och uppdelning i partialbråk. I kapitel 4 definierar vi resultanten av två polynom. Kapitel 5 behandlar kvadratfri faktorisering av polynom, och vi bevisar Yuns algoritm för kvadratfri faktorisering. I kapitel 6 tar vi in differentialalgebraiska begrepp och använder hermitesk reduktion för att skriva om integralen av en godtycklig rationell funktion i en rationell och en logaritmisk del. I kapitel 7 inför vi logaritmiska och algebraiska utvidgningar och beräknar den logaritmiska delen av integralen med Rothstein-Tragers metod. Resultaten sammanfattas i en deterministisk algoritm för symbolisk integrering av rationella funktioner.
  • Tolonen, Topias (2018)
    Tutkielma kertoo takaperäisistä stokastisista differentiaaliyhtälöistä, joiden tutkimus käynnistyi laajamittaisesti vasta 1990-luvulla matemaatikkojen Etienne Pardoux ja Peng Shige toimesta. Mielenkiinto näitä yhtälöitä kohtaan on kasvanut nopeasti sen jälkeen, kun myös takaperäisillä stokastisilla differentiaaliyhtälöillä nähtiin rahoitusteoreettisia sovelluskohteita esimerkiksi optioiden suojausstrategioissa. Tutkielman painopiste on teoreettinen, ja tutkielman suuressa osassa on lukijan johdattelu niin kutsutun Itô-analyysin maailmaan. Todistamme lähteisiin nojautuen useita tuloksia, joista keskeisimpänä on yleisen Itôn integraalin olemassaolo, takaperäisten stokastisten differentiaaliyhtälöiden ratkaisujen olemassaolo- ja yksikäsitteisyyslause sekä näiden yhtälöiden yhteys eurooppalaisen osto-option hinnoitteluun. Aloitamme tutkielman Anders Haldin kirjoihin perustuen kertaamalla todennäköisyyslaskennan ja tilastotieteen historiaa, ja nykypäivää lähentyessä motivoimme lukijan ensiksi Itô-analyysin ja sitten stokastisten differentiaaliyhtälöiden maailmaan. Toisessa luvussa määrittelemme yleisen todennäköisyysavaruuden ja alamme rakentamaan todennäköisyyslaskennallista maailmaa tämän pohjalta. Luvun aikana luomme pala palalta tarpeen erilaisille todennäköisyyslaskennan käsitteille, määrittelemme Lebesguen integraalin ja odotusarvon ja tarkastelemme satunnaismuuttujajonojen raja-arvoja. Siirrymme nopeasti stokastisten prosessien käsittelyssä tarvittaviin työkaluihin, kuten martingaaleihin ja filtraatioihin. Lopuksi siirrymme käsittelemään Brownin liikettä, jonka määrittelemme kolmella eri tavalla. Kolmannessa luvussa esittelemme Itôn integraalin ja perustelemme sen tarpeen ja esittelemme neliöheilahtelun käsitteen yhdessä Itôn lemman kanssa. Näiden jälkeen siirrymme luontevasti kohti moniulotteista Itô-integraalia, kunnes lopulta perustelemme integraalin määritelmän yleisille integrandeille. Luvun lopussa alamme käsittelemään stokastisia differentiaaliyhtälöitä diffuusioprosessien lähtökohdista. Yhtälön esittelyn jälkeen pääsemme stokastisten differentiaaliyhtälöiden tärkeiden tuloksien – olemassaolo- ja yksikäsitteisyyslauseiden – piiriin. Ratkaisun olemassaolon todistamisen jälkeen käymme läpi ominaisuuksia näille yhtälöille, ennen kuin siirrymme kohti takaperäisiä yhtälöitä. Takaperäiset stokastiset differentiaaliyhtälöt (lyhennetään TSDY) astuvat kuvaan luvussa neljä. Tarkastelemme luvussa tavanomaista takaperäistä stokastista differentiaaliyhtälöä. Tarkastelemme ongelman mielekkyyttä ja perustelemme yhtälöiden tarvetta. Nopeasti siirrymme tarkastelemaan, miten generaattorin muoto vaikuttaa yhtälöön ja sen ratkaisuihin. Tämän jälkeen esittelemme Pardoux'n ja Pengin kuuluisan tuloksen näiden yhtälöiden ratkaisun olemassaolosta ja yksikäsitteisyydestä. Olemassaolo- ja yksikäsitteisyyslauseen jälkeen esittelemme takaperäisten stokastisten differentiaaliyhtälöiden vertailulauseen, ja lopulla tarkastelemme yhtälöiden ratkaisuja löyhemmillä oletuksilla. Viimeisessä luvussa siirrymme tarkastelemaan erästä takaperäisten stokastisten differentiaaliyhtälöiden tärkeintä sovelluskohdetta: rahoitusteoriaa. Esittelemme klassisen rahoitusteorian Black ja Scholes -markkinamallin ja avaamme tämän maailman stokastisten differentiaaliyhtälöiden silmin. Todistamme tuloksen, missä yhdistetään eurooppalaisen option arvo takaperäisen stokastisen differentiaaliyhtälön ratkaisuihin ja mallinnamme hintatiheysprosessin. Lopuksi osoitamme, että tällaisen eurooppalaisen option arvo tulee takaperäisten stokastisten differentiaaliyhtälöiden avulla täsmällisesti samaan hintaan kuin Black ja Scholes -artikkelissa osoitettiin.
  • Kokkonen, Tiina (2015)
    Tartuntatauteja esiintyy eliölajien keskuudessa monenlaisia. Taudinaiheuttajissa tapahtuu aina toisinaan mutaatioita, jolloin tautipopulaation ominaisuudet muuttuvat ajan kuluessa. Tätä taudinaiheuttajien evolutiivista muuntelua tarkastellaan tässä tutkielmassa adaptiivisen dynamiikan keinoin. Tutkielmassa käsitellään sitä, miten evolutiivista muuntelua tutkitaan, mitä oletuksia pitää ottaa huomioon sekä millä työkaluilla kyseistä ilmiötä on mahdollista tutkia. Aluksi käydään läpi adaptiivisen dynamiikan perusperiaatteita sekä tässä tutkielmassa käytettyjä oletuksia ja tarvittavaa terminologiaa. Adaptiivinen dynamiikka on luonnonvalintaan pohjautuvaa evoluution tutkimista matemaattisin keinoin. Tärkeitä termejä, jotka tutkielmassa esiintyvät ovat muun muassa lisääntymisluku (R0), invaasiokelpoisuus (sr(m)) sekä evolutiivisesti vakaa piste (ESS). Evolutiivisen muuntelun tarkastelussa oleellinen apuväline on invaasiokuvio (PIP), joka on invaasiokelpoisuuden merkkikaavio. Tutkielmassa tarkastellaan erityisesti populaation evolutiivista käyttäytymistä singulaarisessa strategiassa r . Lisäksi perehdytään erilaisiin tartuntatautimalleihin, niiden oletuksiin, valintaan ja muotoiluun. Tässä tutkielmassa esimerkkien avulla esillä ovat SIS- ja SIR-mallit. Näissä malleissa populaatio jaetaan altiiden (S), sairastuneiden (I) ja poistettujen (R) luokkiin. Lisäksi määritellään tarvittavat parametrit taustakuolleisuudelle, tautiin liittyvälle kuolleisuudelle sekä tarttumis-, toipumis- ja lisääntymisintensiteetille. Lopuksi pohditaan vielä hieman evolutiivisen itsemurhan käsitettä. Tutkielmassa määritellään tietyt oletukset eräälle SIR-mallille, jolloin taudin on mahdollista muuntua siten, että se lopulta tappaa itsensä sukupuuttoon. Lisäksi mietitään kuinka realistisia nämä oletukset ovat eli olisiko tapahtuma mahdollinen oikeassakin elämässä. Tutkielmassa käydään läpi tarvittavaa pohjatietoa ja hyödyllisiä matemaattisia välineitä taudinaiheuttajassa tapahtuvan evolutiivisen muuntelun tutkimiselle. Lisäksi opitaan ymmärtämään oleelliset asiat mallinnuksen taustalla ja mallin valintaan vaikuttavat tekijät. Huomataan myös, että jo pienet muutokset alkuoletuksissa voivat vaikuttaa hyvinkin dramaattisesti lopputulokseen, joten oletuksien valinta ja muotoilu on erittäin tärkeää.
  • Suomenrinne-Nordvik, Anna (2018)
    Group defense against predator attacks are common for prey species. Some group defense mechanisms are more passive, like swarm confusion. In this thesis the focus is an active type of group defense where the prey fight back against the attacking predator as a group. The aim of this thesis is to formulate a model with active groups defense and to mechanistically derive and analyse the functional response arising from it. The motivation is to understand the impact of this special type of group defense on the functional response of the predator, and hence on the whole dynamics of the model. Some theory about prey-predator models, the functional response and tools for analysing dynamical systems are presented as background first. Following this, the model is formulated from the individual level processes and the functional response derived using the method of time-scale separation. Finally, two special cases of the model are analysed. In the model, the defense of the prey is modelled as a coagulation and fragmentation process, where the prey can join the fight to protect the individual that is being attacked. These fights become clusters where the attacking predator is the coagulation kernel. The clusters can grow or shrink by one prey joining or leaving at a time, or the cluster breaking up completely due to success of either the attack or the defense. This type of coagulation and fragmentation process can be seen as a generalization of the Becker-Döring equations, where the clusters are homogenous groups and the groups can also only grow and shrink by one individual at a time. The cluster dynamics truncated with a maximum size for the clusters was found to have a unique and stable equilibrium for arbitrarily large maximum cluster sizes in both special cases of the model. The stability analysis for cluster dynamics with no maximum cluster size was not successful, even though there is reason to believe the results for the truncated system is generalizable to that case. The functional response was found to take a dome-shaped form, decreasing to zero under certain circumstances, or the form of Holling type II functional response. The determining factor for which type of functional response the model gives rise to is whether the predator’s attack rate is dependent on the cluster size or not. The same dependence of the form of the functional response on the attack rate was found to hold in both special cases of the model.
  • Vannekoski, Joni (2014)
    In this thesis, we apply the method of layer potentials to prove that there is a unique solution to the Dirichlet problem for Laplace's equation in C^{1}-domains. We assume that C^{1}-domains are subsets of R^{d}, d≥ 2, they are bounded and they have connected boundaries. In addition, we assume that the boundary data of the Dirichlet problem belong to the Lebesgue space L^{p}(∂ D,σ) with p∈(1,∞). We will follow the work of E. B. Fabes, M. Jodeit Jr. and N. M. Rivi{\`e}re. In their work, they solved various boundary value problems in domains that were merely C^{1} by applying the method of layer potentials. The method of layer potentials is a procedure for solving the boundary value problems in the form of layer potentials. We will use it to solve the Dirichlet problem in the form of the double layer potential. The double layer potential satisfies Laplace's equation and the boundary values of the double layer potential are given by an operator \tfrac{1}{2}I+K. It turns out that in C^{1}-domains the operator K is compact on L^{p}(∂ D). Consequently, we can use the Fredholm theory to deduce that the operator \tfrac{1}{2}I+K is invertible and thus, we obtain a double layer potential solution to the Dirichlet problem. Finally, we will establish the uniqueness of the solution by using the properties of Green's function. In the end of this thesis, we will also discuss how the method of layer potentials can be applied to the Dirichlet problem for Laplace's equation in Lipschitz domains with L^{2}-boundary data by following the doctoral dissertation of G. H. Verchota.
  • Syren, Joonas Emil (2016)
    In this thesis we consider the Dirichlet-to-Neumann map in Electrical Impedance Tomography (EIT). EIT is a tomography method which uses electrical currents and voltages to determine the conductivity distribution inside the measured object. The Dirichlet-to-Neumann map (DN map) takes the voltage on the boundary and gives the resulting current density on the boundary. This map can be approximated by a matrix known as the Dirichlet-to-Neumann matrix. In this thesis we analyse this matrix using Principal Component Analysis (PCA). In chapter 1 we give a short introduction to EIT with a brief history of the study and some applications of the method. The Dirichlet-to-Neumann map is derived in chapter 2. Constructing the DN map requires solving the Dirichlet problem which is derived from Maxwell?s equations. The Dirichlet problem and its solvability is studied in this chapter as well. Some of the concepts needed in this study can be found from the appendices. The method used for approximating the DN map is introduced in chapter 3. The approximated matrices are then analysed using PCA, which is described in the same chapter. PCA can be used to find the components where the variation is the largest and to reduce the dimension of the data using these components. We use a method known as Singular Value Decomposition (SVD) to reduce the dimension of the data and to compute the principal values and components. We computed the DN matrices with simulated data using different conductivity distributions. We chose the unit circle as our domain with a constant conductivity on the background and four anomalies with changing conductivity. The 4th chapter introduces the computations and the obtained results. The resulting principal components and values are shown in this chapter. An approximation of the data was made using the dimensionality reduction method described in chapter 3. The relative errors for different reconstructions are also shown in chapter 4. In the final chapter we discuss the results. Our goal was to find out how the four variables in the conductivity distributions affect the dimension of the hyperplane that the DN matrices form. It seems that even with four degrees of freedom the DN matrices vary most on a 2-dimensional plane. We also found out that in this case most of the principal components have almost no effect on the data.
  • Vestberg, Matias Leo (2015)
    The thesis is mainly concerned with two concepts fundamental for microlocal analysis, namely the wave front set and oscillatory integrals. Many definitions and results are generalized to manifolds and vector bundles, and for this reason the generalization of classical distribution theory to these settings is presented in great detail in the first chapter. After this, the wave front set defined and its connection to singularities of distributions is explained. Among the most important results is the detailed proof of the fact that a distribution which is defined on the target space of a smooth map, and has a suitable wave front set, can be pulled back to a distribution on the domain. The pullback map is shown to be sequentially continuous but not topologically continuous in general. Aided by the pullback map we show how the product of two distributions can be defined when their wave front sets are compatible in a certain way. An application to the theory of PDEs is also given. Lastly, oscillatory integrals are defined and a description of their wave front sets is given.
  • Lamminpää, Otto (2017)
    Tutkielmassa esitellään laskennallisten inversio-ongelmien teoriaa erityisesti tilastollista läahestymistapaa käyttäen. Kirjallisuuden ja tieteellisten artikkelien perusteella tutustutaan mittauksen informaatiosisältöön ja esitellään menetelmä inversio-ongelman dimension alentamiseksi. Tätä menetelmää sovelletaan ilmakehän kaukokartoitukseen metaanin tiheysprofiilin ratkaisemisen nopeuttamiseksi. Laskennallisessa inversio-ongelmassa ratkaistaan yhtälö y = F(x) + e missä F: A -> B on suora malli tila-avaruudesta A data-avaruuteen B, x on tuntematon, y on kohinallinen mittaus ja e on esimerkiksi mittausvirheestä johtuvaa kohinaa. Tilastollisessa inversiossa mallinnetaan kaikkia ongelman parametreja satunnaismuuttujilla. Käyttämällä Bayesin kaavaa saadaan inversio-ongelman ratkaisuksi posterioritodennäköisyysjakauma yhdistelemällä tuntemattoman x prioritodennäköisyysjakaumaa ja mittauksesta saatavaa uskottavuusjakaumaa. Tutkielmassa rajoitutaan tarkastelemaan reaaliavaruuksien välisiä kuvauksia, mutta tulokset voidaan yleistää koskemaan yleisempiä Hilbertin avaruuksia. Matemaattisena esitietona esitellään lieaarialgebrasta ominais-ja singulaariarvohajotelmat ja näytetään esimerkkinä niiden käyttöä pääkomponenttianalyysissä. Inversio-ongelmien klassista teoriaa käydään läpi vain pintapuolisesti, ja käsitellään syvemmin tilastollista lähestymistapaa normaalijakautuneita satunnaismuuttujia käyttäen. Annetaan myös joitain esimerkkejä priorien rakentamisesta ja käytöstä. Numeerisista ratkaisumenetelmistä esitellään lyhyesti tutkielmassa käytettävät Levenbergin-Marquardtin algoritmi (LevMar) sekä Markovin ketju Monte Carlo -menetelmä (MCMC). Mittaus sisältää usein vain rajallisen märän informaatiota. Lähdekirjallisuuden tulosten perusteella esitellään tapa tutkia mittauksen informaatiosisältöä sekä löytää inversio-ongelman informatiivinen aliavaruus (LIS). Näytetään myös tässä aliavaruudessa löydetyn ratkaisun approksimoivan ongelman oikeaa ratkaisua mahdollisimman hyvin. Lopuksi sovelletaan kehitettyä menetelmää Ilmatieteen laitoksen Sodankylän tutkimusasemalla suoritettavan FTIR-mittauksen yksinkertaistettuun versioon sekä vertaillaan täyden ja redusoidun avaruuden ratkaisuja keskenään. Tutkielma on tehty kokonaisuudessaan Ilmatieteen laitoksella Uudet havaintomenetelmät -yksikön Ilmakehän kaukokartoitus -ryhmässä vuosina 2016-2017.
  • Hannula, Minna (2016)
    Time series are very common in many fields of science as well as in, for example, economics. Nowadays time series are a more common way of expressing data because of the wide range of sensors and equipments collecting ordered data, such as stock prices and wind speed. Desire for a time series analysis usually rises from a wish to both understand a time-related data and interpolate missing values. In this research we had two different time series and two different aims for the analyze. The first goal was to analyze one-dimensional time series of temperature measurements and try to fill in a self-created gap in the time series. Missing values are commonly present in a real life measurement data, often caused by a failure of a measurement device or a simple human error. The missing values are problematic when analyzing time series: some of the common analyzing methods are not applicable to a data containing gaps and even a small, unfilled gap reduces the reliability of the observation analysis such as future value predictions. The second aim was to work with a selection of satellite image data. These satellite images were all taken from the same location and together they formed a two-dimensional time series. The goal was to analyze the time series of images, aiming to find some common features between different land types and by using these features divide the image pixels into five different clusters, depending on the land types the pixels were representing. The motivation behind such analysis was to test feature recognition possibilities for the recently collected satellite image data, which was measured using the synthetic aperture radar imaging. The data was provided by the Electric Brain project. For analyzing the time series we used techniques based on Fourier analysis, wavelet analysis, cross-correlation and k-means clustering algorithm. As the results presented in the chapter 3 present, the gap filling for the one-dimensional temperature data was performed successfully with two different approaches based on Fourier and wavelet analysis. Especially the wavelet analysis approach performed a very good reconstruction for a missing year of temperatures using data from two to five surrounding years. The results of the feature recognition of the two-dimensional satellite image data were not as successful and results did not offer a good land type based separation of the pixels.