Browsing by study line "Matematiikka ja soveltava matematiikka"
Now showing items 21-40 of 41
-
(2023)Stochastic homogenization consists of qualitative and quantitative homogenization. It studies the solutions of certain elliptic partial differential equations that exhibit rapid random oscillations in some heterogeneous physical system. Our aim is to homogenize these perturbations to some regular large-scale limiting function by utilizing particular corrector functions and homogenizing matrices. This thesis mainly considers elliptic qualitative homogenization and it is based on a research article by Scott Armstrong and Tuomo Kuusi. The purpose is to elaborate the topics presented there by viewing some other notable references in the literature of stochastic homogenization written throughout the years. An effort has been made to explain further details compared to the article, especially with respect to the proofs of some important results. Hopefully, this thesis can serve as an accessible introduction to the qualitative homogenization theory. In the first chapter, we will begin by establishing some notations and preliminaries, which will be utilized in the subsequent chapters. The second chapter considers the classical case, where every random coefficient field is assumed to be periodic. We will examine the general situation later that does not require periodicity. However, the periodic case still provides useful results and strategies for the general situation. Stochastic homogenization theory involves multiple random elements and hence, it heavily applies probability theory to the theory of partial differential equations. For this reason, the third chapter assembles the most important probability aspects and results that will be needed. Especially, the ergodic theorems for R^d and Z^d will play a central part later on. The fourth chapter introduces the general case, which does not require periodicity anymore. The only assumption needed for the random coefficient fields is stationarity, that is, the probability measure P is translation invariant with respect to translations in Zd. We will state and prove important results such as the homogenization for the Dirichlet problem and the qualitative homogenization theorem for stationary random coefficient fields. In the fifth chapter, we will briefly consider another approach to qualitative homogenization. This so-called variational approach was discovered in the 1970s and 1980s, when Ennio De Giorgi and Sergio Spagnolo alongside with Gianni Dal Maso and Luciano Modica studied qualitative homogenization. We will provide a second proof for the qualitative homogenization theorem that is based on their work. An additional assumption regarding the symmetricity of the random coefficient fields is needed. The last chapter is dedicated to the large-scale regularity theory of the solutions for the uniformly elliptic equations. We will concretely see the purpose of the stationarity assumption as it turns out that it guarantees much greater regularity properties compared to non-stationary coefficient fields. The study of large-scale regularity theory is very important, especially in the quantitative side of stochastic homogenization.
-
(2023)''Don't put all your eggs in one basket'' is a common saying that applies particularly well to investing. Thus, the concept of portfolio diversification exists and is generally accepted to be a good principle. But is it always and in every situation preferable to diversify one's investments? This Master's thesis explores this question in a restricted mathematical setting. In particular, we will examine the profit-and-loss distribution of a portfolio of investments using such probability distributions that produce extreme values more frequently than some other probability distributions. The theoretical restriction we place for this thesis is that the random variables modelling the profits and losses of individual investments are assumed to be independent and identically distributed. The results of this Master's thesis are originally from Rustam Ibragimov's article Portfolio Diversification and Value at Risk Under Thick-Tailedness (2009). The main results concern two particular cases. The first main result concerns probability distributions which produce extreme values only moderately often. In the first case, we see that the accepted wisdom of portfolio diversification is proven to make sense. The second main result concerns probability distributions which can be considered to produce extreme values extremely often. In the second case, we see that the accepted wisdom of portfolio diversification is proven to increase the overall risk of the portfolio, and therefore it is preferable to not diversify one's investments in this extreme case. In this Master's thesis we will first formally introduce and define heavy-tailed probability distributions as these probability distributions that produce extreme values much more frequently than some other probability distributions. Second, we will introduce and define particular important classes of probability distributions, most of which are heavy-tailed. Third, we will give a definition of portfolio diversification by utilizing a mathematical theory that concerns how to classify how far apart or close the components of a vector are from each other. Finally, we will use all the introduced concepts and theory to answer the question is portfolio diversification always preferable. The answer is that there are extreme situations where portfolio diversification is not preferable.
-
(2024)Sums of log-normally distributed random variables arise in numerous settings in the fields of finance and insurance mathematics, typically to model the value of a portfolio of assets over time. In particular, the use of the log-normal distribution in the popular Black-Scholes model allows future asset prices to exhibit heavy tails whilst still possessing finite moments, making the log-normal distribution an attractive assumption. Despite this, the distribution function of the sum of log-normal random variables cannot be expressed analytically, and has therefore been studied extensively through Monte Carlo methods and asymptotic techniques. The asymptotic behavior of log-normal sums is of especial interest to risk managers who wish to assess how a particular asset or portfolio behaves under market stress. This motivates the study of the asymptotic behavior of the left tail of a log-normal sum, particularly when the components are dependent. In this thesis, we characterize the asymptotic behavior of the left and right tail of a sum of dependent log-normal random variables under the assumption of a Gaussian copula. In the left tail, we derive exact asymptotic expressions for both the distribution function and the density of a log-normal sum. The asymptotic behavior turns out to be closely related to Markowitz mean-variance portfolio theory, which is used to derive the subset of components that contribute to the tail asymptotics of the sum. The asymptotic formulas are then used to derive expressions for expectations conditioned on log-normal sums. These formulas have direct applications in insurance and finance, particularly for the purposes of stress testing. However, we call into question the practical validity of the assumptions required for our asymptotic results, which limits their real-world applicability.
-
(2023)In this thesis we present and prove Roger Penrose’s singularity theorem, which is a fundamental result in mathematical general relativity. In 1965 Penrose showed that in Einstein’s theory of general relativity, under certain general assumptions on the topology, curvature, and causal structure of a Lorentzian spacetime manifold, the spacetime manifold is null geodesically incomplete. At the time, Penrose’s theorem was highly topical in a longstanding debate on the question whether singularities are formed in the process of gravitational collapse. In the proof of the theorem, novel mathematical techniques were introduced in the study of Einstein’s theory of gravity, leading to further important developments in the mathematics of general relativity. Penrose’s theorem is built on the methods of semi-Riemannian geometry, in particular Lorentzian geometry. To lay the basis for later constructions, we therefore review the basic concepts and results of semi-Riemannian geometry needed in order to understand Penrose’s theorem. The discussion includes semi-Riemannian metrics, connection, curvature, geodesics, and semi-Riemannian submanifolds. Second, calculus of variations on semi-Riemannian manifolds is introduced and a set of results pertinent to Penrose’s theorem is given. The notion of focal point of a spacelike submanifold is defined and a proposition stating sufficient conditions for the existence of focal points is presented. Furthermore, we give a series of results that establish a relation between focal points of spacelike submanifolds and causality on a Lorentzian manifold. In the last chapter, we define a family of concepts that can be used to analyze the causal structure of Lorentzian manifolds. In particular, we define the notions of global hyperbolicity, Cauchy hypersurface, and trapped surface, which are central to Penrose’s theorem, and show some important properties thereof. Finally, Penrose’s theorem is stated and proved in detail.
-
(2023)Predator—prey models can be studied from several perspectives each telling its own story about real-life phenomena. For this thesis the perspective chosen, is to include prey—rescue to the standoff between the predator and the prey. Prey--rescue is seen in the nature for many species, but to point one occurrence out, the standoff between a hyena and a lion. When a lion attacks a hyena, the herd of the hyena try to frighten the lion away. The rescue attempt can either be successful or a failure. In this thesis the prey-rescue model is derived for an individual rescuer and for a group of prey. For both cases, the aim is to derive the functional and numerical responses of the predator, but the focus is on the deriving and studying of the functional responses. First, a brief background to motivate the study of this thesis is given. The indroduction goes through the most important aspects of predator—prey modelling and gives an example of a simple, but broadly known Lotka—Volterra predator-prey model. The study begins with the simplest case of prey-rescue, the individual prey—rescue. First, the individual level states, their processes and all the assumptions of the model are introduced. Then, the model is derived and reduced with timescale separation to achieve more interpretable results. The functional response is formed after solving the quasi-equilibrium of the model. It was found that this way of constructing the model gives the popular Holling Type II functional response. Then, it is examined what follows when more and more prey get involved to the standoff trying to rescue the individual being attacked by. This is studied in three different time-scales: ultra—fast, intermediate, and slow timescales. The process of deriving the model and the functional response is like in the simple case of individual prey rescue, but the calculations get more intense. The functional response was found to be uninteresting. In conclusion, the model was adjusted. One of the timescales is left out from the studies in hopes for more interesting results. The derivation came out similar as in the third chapter, but with more advanced calculations and different results of quasi-equilibrium and functional response. The functional response obtained, was found to be worth of studying in a detailed fashion. This detailed study of the functional response obtained, is done last. It was found that different parameter choices affect the shape of the functional response. The parameters were chosen to be biologically relevant. Assuming that the rescue is certain for the group size n = 2, it was found that the functional response took a humpback form for some choices of the other parameters. The parameter ranges, for which the functional response had a humpback shape, were found.
-
(2024)Vaikka koneoppimisen menetelmien käyttö on lisääntynyt myös vakuutusmatemaatikoiden keskuudessa, ovat yleistetyt lineaariset mallit edelleen varsin suosittuja alalla. Selittävien tekijöiden tilastollisen merkitsevyyden selvittäminen hypoteesien testauksen avulla tai parametrin luotettavuuden arviointi luottamusvälien avulla ovat syitä yleistettyjen lineaaristen mallien käytettävyyteen. Toisin kuin lineaaristen mallien kohdalla, yleistettyjen lineaaristen mallien tilastollisen testaamisen tulokset pätevät yleensä vain asymptoottisesti. Tässä Pro Gradu työssä perehdytään tilastollisten mallien matemaattisiin rakenteisiin ja pyritään vastaamaan millä matemaattisilla oletuksilla yleistetyissä lineaarisissa malleissa nämä asymptoottiset tulokset ovat voimassa. Erityisesti tullaan näyttämään, että millä oletuksilla regressioparametrin suurimman uskottavuuden estimaattori on asymptoottisesti normaalijakautunut. Luvut 2 ja 3 ovat kooste oleellisista mittateorian ja todennäköisyysteorian käsitteistä, joita teorian rakentaminen vaatii. Luvussa 4 esitellään jakaumasuppenemisen käsite ja todistetaan Lévyn jatkuvuuslause, joka antaa oivan työkalun tutkia satunnaismuuttujien asymptoottisia rajajakaumia. Luku 5 käsittelee satunnaismuuttujien stokastista suppenemista, jota tullaan tarvitsemaan estimaattorin tarkentuvuuden määrittelemisessä. Luvussa 6 todistetaan kaksi keskeistä raja-arvolausetta Lévyn jatkuvuuslauseen avulla ja annetaan loput työkalut, joilla estimaattori voidaan lopulta osoittaa normaalijakautuneeksi. Luvussa 7 siirrytään matemaattisen tilastotieteen puolelle ja todistetaan riittävät oletukset tilastolliselle mallille, jotta sen suurimman uskottavuuden estimaattori olisi asymptoottisesti normaalijakautunut. Yleistettyjen lineaaristen mallien rakenne esitellään luvussa 8 ja viimeisessä luvussa 9 näytetään, että logistinen malli voidaan esittää yleistettynä lineaarisena mallina. Luvussa myös annetaan esimerkki, kuinka logistista mallia voitaisiin hyödyntää vahinkovakuutusyhtiön liiketoiminnan analysoinnissa sekä tutkitaan, millä ehdoilla logistinen malli täyttää luvussa 7 annetut ehdot, joiden perusteella annetun tilastollisen mallin suurimman uskottavuuden estimaattori on asymptoottisesti normaali.
-
(2024)Tiivistelmä – Referat – Abstract Verkkopankin avulla voit maksaa etänä ostoksiasi tai tunnistautua. Sähköisissä asiakirjoissa on digitaalinen allekirjoitus. Lääkärillä asioidessa arkaluonteiset tiedot eivät näy kaikille. Yllä on mainittu esimerkkejä tilanteista, joissa käytetään kryptografiaa ja esimerkiksi RSA-järjestelmää. RSA pyrkii datan suojaamiseen ja todentamiseen. Datan suojaaminen on nykypäivänä digitaalisessa maailmassa äärimmäisen tärkeää. Tutkielman aiheena oleva RSA on julkisen avaimen kryptosysteemi ja sen on kehittänyt Ronald Rivers, Adi Shamir ja Leonard Adleman 1970-luvulla. RSA-algoritmi perustuu oletukseen, että alkuluvut on helppo kertoa keskenään, mutta käänteisproseduuri eli luvun tekijöihin jakaminen on aikaavievää ja laskennallisesti haastavaa. RSA-algoritmi on yksisuuntainen funktio. Tällöin funktion f:n kuvaus on julkisesti tiedossa. Kun tiedetään muuttuja x, niin on helppo laskea f(x). Mikäli tiedetään y, niin on vaikea löytää muuttuja x niin, että f(x) = y. RSA-algoritmissa valitaan satunnaisesti kaksi suurta alkulukua p ja q ja kerrotaan ne keskenään. Alkulukujen tuloa kutsutaan moduloksi. Valitut alkuluvut eivät saa olla samat ja niitä pidetään salassa. Alkulukujen tulon jakaminen tekijöihin vie aikaa nykyisillä tietokoneiden laskenta-algoritmeilla. Alkulukujen tulo eli modulo on julkista tietoa. Jos alkuluvut p tai q saadaan selville RSA-algoritmi on käyttökelvoton. RSA-algoritmissa on kaksi avainta: julkinen avain (e,N) ja yksityinen avain (d,N). Algoritmin avulla voidaan luottamuksellinen viesti RSA-salata, jotta vain haluttu vastaanottaja voi lukea viestin. RSA-algoritmi mahdollistaa myös digitaalisen allekirjoituksen. RSA-algoritmin haavoittuvuuksia on analysoitu ja tutkittu algoritmin kehittämisen jälkeen matemaattisin keinoin. RSA-systeemissä on parametreja, joiden tarkoituksena on pysyä salaisina. Jos yksikin näistä parametreista saadaan selville, niin tämä tieto haavoittaa RSA-enkryption ja muut parametrit saadaan selvitettyä. Jos RSA:ta käytetään väärin tai järjestelmäsuunnittelu on virheellinen, niin on mahdollisuus murtaa RSA myös ilman tietoa parametreista. Kvanttilaskenta voi muuttaa tulevaisuudessa nykyisin tunnettua RSA-järjestelmää. Kvanttitietokoneet pystyvät Shorin algoritmia käyttämällä jakamaan suuria lukuja tekijöihin paljon nopeammin kuin perinteiset, klassiset tietokoneet.
-
(2023)This thesis follows a proof for Selberg’s Central Limit Theorem for log |ζ( 1/2 + it)|. The theorem states that the random variable ( 1/2 log log T )^(−1/2) log |ζ( 1/2 +it)| with T ≤ t ≤ 2T converges to N (0, 1) weakly as T → ∞. The proof we follow is by Kannan Soundararajan and Maxym Radziwill. The intention is to expand on the details that their original work leaves for the reader to fill in. Their proof is a four step approximation. The first step shifts the consideration right from the critical line Im(s) = 1/2. The second step is proving that a random variable based on a related Dirichlet polynomial converges weakly to N (0, 1). The third step ties another Dirichlet polynomial to the one from the previous step. The final step is to tie the Dirichlet polynomial from step 3 to the Riemann Zeta. One way to interpret Selberg’s Central Limit Theorem is that extreme ab- solute values of the Riemann Zeta become proportionally rarer when we look further on the critical line. The function does not linger long around its zeros and it does not stay close to its extreme values for long. Most of its values will have an absolute value close to √ (1/2 log log T) .
-
(2024)This thesis is on the statistical properties of the Riemann zeta-function. The starting point for this thesis is the 1972 paper of Montgomery, in which the pair correlation of the roots of the zeta-function is computed. We then examine the pair correlation conjecture of Montgomery, and give an exposition of the analogous result in random matrix theory on the pair correlation of eigenvalues of random matrices. The main part of the thesis is on the conjecture of Fyodorov, Hiary and Keating, which concerns the distribution of the local maxima of the zeta-function. We give a short overview on log-correlated fields, and give the motivation for the conjecture of Fyodorov, Hiary and Keating via a classical result in the theory of log-correlated fields. Finally, we present a full exposition of a result of Arguin, Belius, Bourgade, Soundararajan and Radziwiłł, which proves the leading order of the Fyodorov-Hiary-Keating Conjecture. Included are also two appendicies which contain proofs for estimates on the second and fourth moments of the zeta-function and its appendices.
-
(2024)This thesis covers martingale based theory of interest modelling. Short-rate models and their characteristics are introduced to deal with the pricing of zero-coupon bonds, including a defaultable bond. In order to back the results concerning the characteristics of the short-rate models, there are few simulations done with Matlab. The thesis covers a formulation for a necessary condition for Heath-Jarrow-Morton-model (HJM) to have a martingale property. As a practical example of zero-coupon bonds, a self-financing hedging strategy for the bond call option is presented. The last part of the thesis handles the derivatives of Secured Overnight Financing Rate (SOFR) and The London Inter-Bank Offered Rate (LIBOR). It is shown that the Gaussian cumulative distribution may be used in forming the arbitrage free price of SOFR and LIBOR derivatives. Also a hedging strategy for the swaption is introduced. The receipt to manage these merely complex looking equations is quite simple. The effective use of martingale representation theorem together with Girsanov-Meyer’s theorem and forward measure is the key. The first theorem guarantees that the square-integrable martingale Mt admits to representation dMt =θtdBt, where Bt is a Brownian motion and θt is unique adapted square-integrable stochastic process. The second one guarantees us a way to find Brownian motion process under the new measure. It is of the form dB∗ t = Htdt+dBt, In addition to the concepts of mathematical finance there are results governing the probability theory. For example, the construction of Wiener and Itô integrals, Lèvy’s characterization theorem and already mentioned Martingale represantation theorem with proofs are covered.
-
(2022)Tutkielmassa sijoitusportfolion valinnan ongelmaa lähestytään stokastisen dominanssin näkökulmasta. Stokastinen dominanssi yleisesti on tapa antaa satunnaismuuttujille osittainen suuruusjärjestys niiden jakauman perusteella. Lähtökohdaksi portfolion valintaan esitellään Markowitzin odotusarvo-varianssi-optimointi, missä sijoittamiseen kelvollisten portfolioiden joukon määräävät vain portfolioiden tuottojen odotusarvo ja varianssi. Stokastinen dominanssi perustuu sen sijaan odotetun utiliteetin teoriaan, missä sijoittamiseen kelvollisten portfolioiden joukon määräävät sekä sijoittajan mieltymykset, eli niin sanottu utiliteettifunktio, että portfolioiden tuottojen koko todennäköisyysjakauma. Tutkielmassa saadaan stokastisen dominanssin perusteella portfolioiden optimointisääntö, kun sijoittajan utiliteettifunktiolle oletetaan vain kasvavuus. Tässä tapauksessa esimerkin kautta nähdään, että kelvollisten portfolioiden joukko on hyvin laaja, ja siten voi sisältää portfolioita, johon minkään tosielämän sijoittajan ei voi kuvitella sijoittavan. Stokastisella dominanssilla johdetaan myös portfolioiden optimointisääntö, kun sijoittajan oletetaan olevan riskinvastainen, tai toisin sanoen, kun sijoittajan utiliteettifunktio on konkaavi. Tutkielmassa johdetaan myös stokastisen dominanssin antama portfolion optimointisääntö, jos portfolioiden tuottojen oletetaan olevan normaalijakautuneita. Sääntö johdetaan sekä kasvavan että konkaavin utiliteettifunktion tapauksessa. Konkaavissa tapauksessa huomataan, että oletus tuottojen normaalijakautuneisuudesta johtaa samaan optimointisääntöön, kuin Markowitzin odotusarvo-varianssi-optimoinnissa. Lopuksi tutkielmassa pohditaan stokastisen dominanssin antamien optimointisääntöjen käyttöä käytännön tilanteissa ja annetaan esimerkkejä tutkimuksista, joissa stokastisen dominanssin optimointisääntöjä on käytetty oikeaan markkinadataan.
-
(2023)Ranskalainen Jean-Michel Bismut esitteli vuonna 1973 stokastisen version niin kutsutusta Pontryagin maksimiperiaatteesta käyttäen ensimmäisenä takaperoisia stokastisia differentiaaliyhtälöitä lineaarisessa tapauksessa. Seuraava harppaus TSDY:n tutkimisessa tapahtui kun kiinalainen Peng Shige ja ranskalainen Ètienne Pardoux julkaisivat vuonna 1990 artikkelin takaperoisten stokastisten differentiaaliyhtälöiden yleisestä teoriasta. Tutkimus keskittyi tuolloin jatkuva-aikaisiin yhtälöihin, ja diskreettiaikaisia yhtälöitä tarkasteltiin lähinnä apuvälineenä simuloimaan ja approksimoimaan jatkuva-aikaisia yhtälöitä. Tammikuussa 2010 ilmestyneessä artikkelissa Samuel N. Cohen ja Robert J. Elliott tarkastelevat diskreettiaikaisia yhtälöitä sinänsä, ei approksimoinnin välineenä. Vuonna 2018 julkaistussa artikkelissa edellä mainitut Cohen ja Elliott yhdessä Tak Kuen Siun kanssa esittelevät Malliavin laskennan sovelluksia takaperoisiin stokastisiin differenssiyhtälöihin liittyen diskreettiaikaisessa binomimallissa. Tässä työssä esittelen takaperoisten stokastisten differenssiyhtälöiden, lyh. TSDY, teoriaa ja lyhyesti myös stokastisen kontrollin teoriaa. Lähden liikkeelle perusteista; toisen luvun aluksi esittelen sigma-algebran, mitallisen avaruuden, mitallisen kuvauksen, mitan ja mitta-avaruuden käsitteet. Näiden avulla on helppo määritellä todennäköisyysteorian käsitteet todennäköisyysmitta, todennäköisyysavaruus ja satunnaismuuttuja. Siirryn odotusarvon pariin ja yritän hahmotella ajatusta siitä että odotusarvo on aina integraali, myös diskreetissä tapauksessa. Ehdollisen odotusarvon määrittelen Hilbertin avaruuden ortogonaaliprojektiona, luvun päätteeksi määrittelen martingaalin käsitteen. Kolmannessa luvussa käyn läpi arbitraasin käsitteen, ja määrittelen sitä varten salkun, strategian ja omavaraisen strategian käsitteet. Käyn läpi myös martingaalimitan ja binomimallin käsitteet ja lasken esimerkiksi erään riskineutraalin todennäköisyyden. Neljännessä luvussa käyn lyhyesti läpi TSDY:n historiaa ja esittelen olemassaolo- ja yksikäsitteisyyslauseen ja vertailuteoreeman. Lisäksi näytän miten TSDY:tä voi käyttää option arvostukseen, sitä varten näytän myös mitanvaihdon näille yhtälöille. Luvun lopuksi tarkastelen vielä niin kutsuttua ajurifunktiota useampitilaisessa viitekehyksessä ja esittelen epälineaarisen odotusarvon käsitteen. Viimeisessä luvussa kirjoitan myös hieman stokastisesta kontrollista ja käyn lyhyellä esimerkillä läpi näiden liitoskohtaa.
-
(2021)Tämän tutkielman tarkoituksena on tutustuttaa lukija arvopaperimarkkinoihin, niiden yleiseen tasapainoon ja tasapainon olemassaoloon yhden periodin markkinamallissa, jossa toimijat käyvät kauppaa arvopapereista vaihtokauppamarkkinoilla. Yleinen tasapainoteoria on lähestymistapa talouden käyttäytymisen kuvaamiseen kokonaisuutena, jossa selvitetään talouden muodostavien toimijoiden kunkin jäsenen optimaalinen käyttäytyminen ja etsitään keskinäisen yhteensopivuuden pistettä. Tasapainoperiaatteen mukaan hinnat sopeutuvat, kunnes toimijoiden valinnat ovat yhteensopivat toistensa kanssa. Tasapaino voidaan määritellä systeemin tilaksi, jossa sillä ei ole syytä muuttua. Tutkielman toisessa kappaleessa esitetään tarpeellisia esitietoja ja apulauseita. Tutkielman lukijan oletetaan tuntevan tavallisimmat matemaattiset merkintätavat. Hänen tulee hallita peruskäsitteet matemaattisesta analyysistä, todennäköisyyslaskennasta, joukko-opista, lineaarialgebrasta ja topologiasta. Näiden lisäksi taloustieteen peruskäsitteiden tuntemus sekä opit auttavat ymmärtämään kokonaisuutta laajemmin. Tutkielman kolmannessa kappaleessa perehdytään lyhyesti arvopaperimarkkinoiden matemaattiseen esitystapaan, kuluttajan utiliteettiteoriaan sekä arbitraasikäsitteeseen. Kappaleessa esitetään myöhemmin tutkielmassa käytettävät talouden tärkeät standardiolettamukset ja todistetaan yhtenä tärkeimpänä tuloksena, milloin yhden periodin arvopaperimarkkinat ovat arbitraasivapaat. Neljännessä kappaleessa paneudutaan tasapainoon ja sen määrittelemiseen. Kappale lähtee liikkeelle tarkasta taloustieteellisestä näkökulmasta. Se perehtyy ehdollisten markkinoiden talouteen, eli toiselta nimeltä Arrow-Debreu-talouteen, sen merkitsemistapaan ja tasapainoon. Tämän jälkeen johdetaan seuraukset arvopaperimarkkinoille. Normalisoidun arbitraasivapaan tasapainon avulla pystytään näyttämään, että täydelliset arvopaperimarkkinat ovat Arrow-Debreu-markkinat. Kappaleen lopussa käydään läpi Pareto-tehokkuutta ja todistetaan, että täydellisillä arvopaperimarkkinoilla, joissa toimijoiden utiliteettifunktiot ovat kasvavia, jokainen kulutustasapaino on Pareto-tehokas. Tämä tarkoittaa sitä, että ei ole olemassa toista allokaatiota, joka parantaisi toisen toimijan utiliteettia huonontamatta jonkin toisen. Viidennessä kappaleessa esitellään tasapainon olemassaoloa ensiksi Arrow-Debreun taloudessa ja käydään esimerkkien avulla läpi, miksi tietyt oletukset ovat välttämättömiä tasapainon olemassaololle täydellisillä markkinoilla. Tämän jälkeen esitetään lause arvopaperimarkkinoiden tasapainolle, jossa markkinat saattavat olla epätäydelliset.
-
(2023)The evolution of number systems, demonstrating the remarkable cognitive abilities of early humans, exemplifies the progress of civilization. Rooted in ancient Mesopotamia and Egypt, the origins of number systems and basic arithmetic trace back to tally marks, symbolic systems, and position-based representations. The development of these systems in ancient societies, driven by the needs of trade, administration, and science, showcases the sophistication of early mathematical thinking. While the Roman and Greek numeral systems emerged, they were not as sophisticated or efficient as their Mesopotamian and Egyptian counterparts. Greek or Hellenic culture, which preceded the Romans, played a crucial role in mathematics, but Europe's true impact emerged during the Middle Ages when it played a pivotal role in the development of algorithmic arithmetic. The adoption of Hindu-Arabic numerals, featuring a placeholder zero, marked a paradigm shift in arithmetic during the Middle Ages. This innovative system, with its simplicity and efficiency, revolutionized arithmetic and paved the way for advanced mathematical developments. European mathematicians, despite not being the primary innovators of number systems, contributed significantly to the development of algorithmic methods. Techniques such as division per galea, solutions for quadratic equations, and proportional reduction emerged, setting the foundation for revolutionary inventions like Pascal's mechanical calculator. Ancient mathematical constants such as zero, infinity, and pi played deeply influential roles in ancient arithmetic. Zero, initially perceived as nothing, became a crucial element in positional systems, enabling the representation of larger numbers and facilitating complex calculations. Infinity, a limitless concept, fascinated ancient mathematicians, leading to the exploration of methods to measure infinite sets. Pi, the mysterious ratio of a circle's circumference to its diameter, sparked fascination, resulting in ingenious methods to compute its value. The development of ancient computational devices further highlights the remarkable ingenuity of early mathematicians, laying the groundwork for future mathematical advancements. The abacus, with its ability to facilitate quick calculations, became essential in trade and administration. The Antikythera mechanism, a 2nd-century astronomical analog computer, showcased the engineering skill of ancient Greeks. Mechanical calculators like the slide rule and Pascaline, emerging during the Renaissance, represented significant developments in computational technology. These tools, driven by practical needs in commerce, astronomy, and mathematical computations, paved the way for future mathematical breakthroughs. In conclusion, the evolution of number systems and arithmetic is a fascinating narrative of human ingenuity and innovation. From ancient Mesopotamia to the Renaissance, this journey reflects the intertwined nature of mathematics, culture, and civilization.
-
(2024)This thesis starts with the definition of the Sobolev space W^{k,p}. This space is a function space consisting of functions whose weak derivatives of order at most k belong to the L^p space. These spaces are complete, which is important in applications and also in the theory of the Sobolev spaces themselves. We review the basic properties of the Sobolev spaces and prove the existence of the trace operator, which assigns boundary values to Sobolev functions. The main result of the thesis is the boundedness and surjectivity of the trace operator from the space W^{1,p}(Ω) to the boundary space W^{1− 1/p}(∂Ω) in the case p > 1. We give the definition and basic properties of the fractional Sobolev spaces that act as a codomain of the trace operator. We then show the surjectivity in two parts, proving first the boundedness of the trace operator in Chapter 3 and then the surjectivity in Chapter 4 with an original proof. We also show the surjectivity of the trace operator from W^{1,1}(Ω) to L^1(∂Ω). Chapters 3 and 4 also contain additional material. In Chapter 3, we give the definition of the fractional Sobolev spaces W^{s,p} for s > 1, and introduce an alternative way to define the Sobolev spaces W^{s,2} = H^s that are also Hilbert spaces. We show the equivalence of the norms of these spaces for 0 < s < 1. In Chapter 4, we emphasize the importance of the assumptions about the boundary in the theorems concerning traces by examining a case that would otherwise violate one of the theorems. In Chapter 5, we examine the Sobolev classes of homeomorphisms on the unit circle and sphere. We show that a homeomorphism ϕ: S^1 → S^1 belongs to the space W^{1− 1/p}(S^1), but a homeomorphism from S^2 to S^2 does not necessarily belong to space W^{1-1/p}(S^2). These results have implications for the properties of the harmonic extensions of the homeomorphisms.
-
(2022)The aim of this thesis was to 1) give an exposition of how topological data analysis (TDA) can be used to look for patterns in periodic data, 2) apply it to financial data and 3) visually explore how a topological analysis of credit data using landscape distances compared to looking directly at the change in credit data in the context of stock market crashes. TDA applies algebraic topology to data. It models data sets as various-dimensional surfaces, or manifolds, and studies their structure to find patterns of interconnectedness. It is a powerful tool for studying large, complex, multi-dimensional and noisy data sets. It is often able to capture subtle patterns in such data sets much better than other methods. It is known that stock market crashes are preceded by periods of credit expansion, but we have no reliable indicator of an imminent crash. Chapter 2 covers the algebraic topological theory needed. Key concepts are simplicial complexes, homology groups and persistent homology. The central theorem is the Nerve Theorem, which establishes an equivalence between the union of a collection of convex sets and the nerve of the collection. Chapter 3 describes the method of time delay embedding to pre-process periodic data. A Vietoris-Rips filtration was applied to sliding windows of credit data. From this persistence diagrams and their corresponding persistence landscapes were obtained. The normalised persistence landscape norms (L1) were plotted to visually explore how well TDA captured the connection between credit expansion and stock market crashes. It was compared to the discrete first derivative of the credit data. Visual inspection of the graphs suggested TDA to be as good, and possibly slightly better, at predicting stock market crashes from bank credit data, than looking at the discrete first derivative directly. No obvious new indicator of an imminent crash was found, however. To unlock the true potential of TDA in analysing large, multivariate data sets, further studies could look to triangulate a better indicator of stock market crashes by combining the credit data with other economic, social and political data. It would also be useful to establish a less subjective, more transparent method for choosing the thresholds used as crash indicators, and to quantify the predictions made by different indicators to better compare them with each other.
-
(2022)Tämän gradun keskeisin asia on uusiutumisteoria. Uusiutumisteoria on todennäköisyysteoriaa, ja siinä tarkastellaan tilanteita niin sanotusti takaperin. Eli voidaan vaikka simuloida tiettyä tilannetta erittäin monta kertaa, ja laskea tuloksen perusteella vastaus. Esimerkki tästä on tilanne, jossa tarkastellaan, kuinka monta kertaa olisi heitettävä noppaa, jotta saadaan sama lukuarvo viisi kertaa peräkkäin. Tällainen on haastavampaa laskea klassisen todennäköisyyslaskennan metodein, koska otannan kokoa ei ole tiedossa. Tutkielman tarkoituksena on, että tutkielman lukija joko saisi ymmärrystä siitä, mitä uusiutumisteoria on, tai hänen tietämyksensä syvenisi. Tämä on toteutettu niin, että tutkielman alussa on pyritty selittämään matemaattisia asioita, joita käytetään myöhemmin tutkielmassa, jotta tutkielma olisi luettavissa mahdollisimman monelle eri matematiikan osaamistasoiselle ihmiselle. Todistusten seuraaminen ihmiselle, joka on matematiikan opinnoissaan vasta alkuvaiheessa voi olla erittäin haastavaa, mutta esimerkit on pyritty kirjoittamaan niin, että ne olisivat kenelle vain luettavissa. Gradussa on kaksi matemaattisesti haastavampaa kappaletta. Toisessa johdetaan keskeinen uusiutumislause ja todistetaan se, ja toisessa johdetaan uusiutumislause epätäydelliseksi uusiutumislauseeksi, ja osoitetaan, kuinka uusiutumisteoria on mukana vakuutusmatematiikan riskiteoriassa. Keskeisen uusiutumislauseen todistus tehdään niin, että ensin johdetaan tämä lause yksinkertaisemmista uusiutumislauseista ja määritellään uusiutumisfunktio. Tämän jälkeen määritellään Blackwellin uusiutumislause ja todistetaan se. Tämän jälkeen voidaan osoittaa, että lauseet ovat matemaattisesti ekvivalentteja sopivin oletuksin, ja kun se on osoitettu, on keskeinen uusiutumislause todistettu. Työn lopussa käsitellään esimerkkejä. Yksi näistä on koneiden hajoamiseen liittyvä uusiutumisteoreettinen tehtävä, ja sen lisäksi esitetään kaksi uusiutumisteoriaan liittyvää paradoksia. Vaikka näissäkin voi olla haastaviakin todistuksen osia, erityisesti molempien paradoksien todistuksissa, on jokainen esimerkki muotoiltu jokaiselle luettavaan muotoon. Nämä kaksi kappaletta ovat ne kappaleet, jotka kannattaa lukea, jos ei ole ikinä kuullut uusiutumisteoriasta. Yllä mainitussa esimerkissä on tilanne, jossa on tehdas ja tehtaassa on kone, jossa on yksi kriittinen osa, joka hajoaa helposti. Jos osa huolletaan ennen hajoamista, maksaa se 200 euroa. Jos taas osa ehtii hajota ennen huoltoa ja se pitää korjata, hajottaa se samalla konetta, ja kustannukseksi tulee tällöin 2600. Koneen osan hajoaminen on tasajakautunutta kahden vuoden ajanjaksolle. Tällöin uusiutumisteorian avulla on mahdollista ratkaista, mikä on optimaalisin huoltoväli koneelle.
-
(2021)Tämän Pro gradu- tutkielma aiheena on valokuvien tarkentamiseen käytetyt algoritmit. Algoritmien tavoitteena on poistaa valokuvista esimerkiksi liikkeestä tai huonosta tarkennuksesta johtuvia epätarkkuuksia ja kohinaa. Työssä esiteltävissä algoritmeissä ongelmaa käsitellään tilastollisena inversio-ongelmana, jonka parametrien estimointiin käytetään erilaisia numeerisia menetelmiä. Tutkielman rakenne koostuu kolmesta osiosta; yleisestä teoriaosuudesta, työssä käytettävien algoritmien esittelystä sekä algoritmien soveltamisesta data aineistoihin ja tulosten vertailusta. Teoriaosuudessa käydään lyhyesti läpi inversio-ongelmien yleistä teoriaa, keskittyen erityisesti valokuvien tarkentamisen kannalta olennaiseen diskreettiin lineaariseen tapaukseen ja tämän tilastolliseen muotoiluun. Algoritmien puolestaan voidaan ajatella koostuvan kahdesta osasta: (i) tilastollisen mallin määrittämisestä ja (ii) mallin parametrien numeerisesta optimoinnista. Tutkielmassa esitellään kaksi klassista analyyttistä menetelmää nimiltään Richardson-Lucy ja ROF -algoritmit sekä syväoppimista ratkaisussa hyödyntävä iRestNet. Lopuksi algoritmeja sovelletaan kahdelle eri aineistoille: ohjelmallisesti generoidulle datalle ja vuonna 2021 järjestetyn Helsinki Deblur Challenge -haastekilpailun kuva-aineistolle. Tarkoituksena on selvittää algoritmien toteutuksessa tehtävien valintojen vaikutusta lopputuloksiin ja vertailla esiteltyjen algoritmien antamia tuloksia keskenään.
-
(2023)Vastuuvelka on keskeinen termi vakuutusmatematiikassa. Vakuutuksen vastuuvelalla hetkellä t tarkoitetaan summaa, joka vakuutusyhtiöllä tulee sillä hetkellä olla varattuna kyseisen vakuutuksen korvauksiin. Vastuuvelkaan vaikuttavat useat tekijät, kuten vakuutukseen liittyvä korvaussumma, korkoutuvuus ja kuolevuus. Tässä työssä käsitellään erilaisten henkivakuutusten vastuuvelkoja. Vakuutuksen hinta on yksinkertaisimmillaan nettokertamaksu. Tässä tapauksessa vakuutettu maksaa kerralla kaikki vakuutusmaksut ja tämä maksu on ekvivalenssiperiaatteen mukaan vakuutetulle maksettavien korvausten nykyarvon odotusarvo, toisin sanoen pääoma-arvo. Pääoma-arvo riippuu korvausten suuruuden lisäksi korkotasosta ja kuolevuudesta. Vakuutusmaksut voidaan myös jakaa pidemmälle aikavälille tai niihin voi sisältyä korvausten pääoma-arvon lisäksi muita kuluja. Elossaolevan vakuutetun vakuutustekninen vastuuvelka tietyllä ajanhetkellä on tulevien korvausten ja kulujen senhetkinen pääoma-arvo vähennettynä tulevien vakuutusmaksujen senhetkisellä pääoma-arvolla. Vastuuvelkaa voidaan ajatella vakuutussopimuksen arvona. Vastuuvelkaa voidaan kuvata Thielen differentiaaliyhtälöllä. Thielen yhtälö voidaan johtaa yksinkertaisissa tapauksissa suoraan derivoimalla vastuuvelkaa tai laajemmin tarkastelemalla vastuuvelan muutosta lyhyellä aikavälillä ja muodostamalla differentiaaliyhtälö erotusosamäärän raja-arvosta. Thielen yhtälön avulla voidaan tarkastella vastuuvelan ja siis vakuutussopimuksen arvon muutoksia. Toisaalta jos oletetaan, että vakuutusyhtiölle syntyy vakuutusaikana vastuuvelkaan suhteutettuja kuluja, tarvitaan Thielen yhtälöä myös vakuutuksen hinnoitteluun.
-
(2024)In the fields of insurance and financial mathematics, robust modeling tools are essential for accura tely assessing extreme events. While standard statistical tools are effective for data with light-tailed distributions, they face significant challenges when applied to data with heavy-tailed characteristics. Identifying whether data follow a light- or heavy-tailed distribution is particularly challenging, often necessitating initial visualization techniques to provide insights into the nature of the distribution and guide further statistical analysis. This thesis focuses on visualization techniques, employing basic visual techniques to examine the tail behaviors of probability distributions, which are crucial for understanding the implications of extreme values in financial and insurance risk assessments. The study systematically applies a series of visualizations, including histograms, Q-Q plots, P-P plots, and Hill plots. Through the interpretation of these techniques on known distributions, the thesis aims to establish a simple framework for analyzing unknown data. Using Danish fire insurance data as our empirical data, this research simulates various probability distributions, emphasizing the visual distinction between light-tailed and heavy-tailed distributions. The thesis examines a range of distributions, including Normal, Exponential, Weibull, and Power Law, each selected for its relevance in modeling different aspects of tail behavior. The mathema tical exploration of these distributions provides a standard basis for assessing their effectiveness in capturing the nature of possibility of extreme events in data. The visual analysis of empirical data reveals the presence of heavy-tailed characteristics in the Danish fire insurance data and is not very well modeled by common light-tailed models such as the Normal and Exponential distributions. These findings underscore the need for more refined approaches that better accommodate the complexities of heavy-tailed phenomena. The thesis advocates for the further use of more advanced statistical tools and extreme value theory to asses heavy-tailed behaviour more accurately. Such tools are important for developing financial and insurance models that can effectively handle the extremities present in real-world data. This thesis contributes to the understanding and application of visualization techniques in the analysis of heavy-tailed data, laying a foundation to build on with more advanced tools to have more accurate risk management practices in the financial and insurance sectors.
Now showing items 21-40 of 41