Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by Title

Sort by: Order: Results:

  • Moslova, Karina (2020)
    Ribonukleiinihapot (RNA) toimivat kriittisissä biologisissa tehtävissä geneettisen tiedon välittäjinä solun sisällä. Sen lisäksi niillä on merkittävä rooli perintöaineksen säilymisessä ja siirtymisessä sekä katalyyttisten toimintojen ylläpitämisessä. RNA-modifikaatioiden on katsottu toimivan ylimääräisenä tiedonvälittäjäkerroksena solufysiologian säätelemisessä nukleotidisekvenssien koodauksessa. Tämän Pro gradun kirjallisuusosassa esitellään viimeisten viiden vuoden ajalta (2014-2019) vakiintuneet tekniikat sekä ohjelmistot RNA-modifikaatioiden tutkimuksissa. RNA-modifikaatioiden monimuotoisten biologisten toimintojen selvittäminen perustuu tarkkaan detektointiin, kvantitointiin, ja modifikaatioiden kartoitukseen. Näytteen esikäsittely mm. kemiallinen leimaaminen on tärkeässä roolissa onnistuneen analyysin kannalta. Työssä kerrotaan mm. massaspektrometrisistä (MS) identifioinneista ja rakennetutkimuksista sekä sekvenssointtitekniikoiden hyödyntämisestä. Useiden viime vuosien aikana menetelmien kehittämisessä on edistytty merkittävästi. Erityisesti MS datan käsittelyyn soveltuvia ohjelmistoja on luotu tandemmassaspektrien tulkitsemiseksi. Massaspektrien käsittelyn monipuolistaminen on johtanut uusiin lähestymistapoihin. joista voidaan saada kvalitatiivista ja kvantitatiivista tietoa RNA-modifikaatioista, usein jopa sekvenssispesifisyyden tasolla. Koska RNA-tutkimus on vielä varhaisessa vaiheessa, se vaatii paljon tutkimustyötä. Uusien menetelmien, tekniikoiden ja ohjelmistojen kehittymisen myötä ymmärrys RNA-modifikaatioiden olemassaolosta, tarkoituksesta, toiminnasta ja vaikutuksesta elämään kasvaa. Työn kokeellisen osion aiheena oli derivatisoida lähettiribonukleiinihappo (mRNA) fluorisoivaksi ja kehittää analyyttinen erotusmenetelmä kapillaarielektroforeesilla (CE) laserindusoitua fluoresenssidetektoria (LIF) käyttäen. Fluoreskeiini-5-isotiosyanaatti (FITC) valittiin derivatisointireagenssiksi sen monipuolisen käytettävyyden vuoksi ja helpon saatavuuden takia. Edellisestä huolimatta on yleisesti tiedossa FITC:n nopea hajoaminen, mutta tähän asti ei ole raportoitu, kuinka nopeasti FITC todellisuudessa muuttuu reagointikyvyttömäksi. Menetelmän kehitysvaiheessa käytettiin RNA-tyyppisiä biologisia molekyylejä, kuten BSA ja aminohappoja. Työssä testattiin erilaisia puskureita eri pH-arvoilla ja pitoisuuksilla. Lisäksi optimoitiin injektiopaine ja -aika sekä virta käyttäen CE-laitteistoa varustettuna diodirividetektorilla (CE-UV). Koska työn päätavoitteena oli erotusmenetelmän kehittäminen, derivatisointireaktion toimivuuteen ei heti kiinnitetty tarpeeksi huomiota. Menetelmä optimoitiin leimatuille aminohapoille ja BSA:lle. Lopuksi siirryttiin viimeistelemään menetelmä CE-LIF:llä. Derivatisointituotteiden tunnistus tehtiin ESI-TOF-MS:lla. Siinä yhteydessä huomattiin FITC:n nopea hajoaminen. Monien haasteellisten kokeilujen jälkeen päädyttiin keskittyä FITC:n stabiiliuden selvittämiseen. FITC:ä myydään samalla cas-numerolla kahta eri konformeeria ja tämän lisäksi vielä eri cas-numerolla kahta isomeeria. Näillä kaikilla on hieman erilaiset fysikaaliset ominaisuudet, jotka selvitettiin tässä työssä. Tutkittiin FITC:n eri konformeerien stabiilisuutta erilaisissa liuottimissa ja kahdessa lämpötilassa kymmenen päivän ajan käyttäen ESI-TOF-MS-laitetta sekä positiivisella että negatiivisella polariteetilla. Tutkimuksessa standardoidulla derivatisointiproseduurilla testattiin FITC-kemikaalin avulla LIF-detektorin toimintaa. Kuitenkin mRNA-derivatisointiin vaaditaan kalliit leimauskitit, joita ei tässä vaiheessa ollut mahdollista hankkia. Pysyminen alkuperäisessä suunnitelmassa ja optimoida CE-LIF -metodi fluoresoivalla FITC-reagenssilla lähetti-RNA:n leimaamiseen ei aikataulullisesti onnistunut. Siten projekti painottui tämän kokeellisen työn osalta derivatisoinnin optimointiin ja FITC-kemikaalien kinetiikkaan. Sen vuoksi projektissa tehtiin perusteellinen pohjatyö tuleville tutkimuksille. Kokeellisesti onnistuttiin leimaamaan nukleotidiemäksiä, jotka ovat lähetti-RNA:n perusosia. Selvitettiin FITC:n hajoamisnopeus ja liuottimet, joita FITC-tutkimuksissa on käytetty ja joita tulee käyttää, jotta reaktio onnistuu. Leimaus onnistui p-kinoidille. Saatujen tulosten perusteella on mahdollista laskea FITC:n optimaalinen määrä onnistuneen reaktion kannalta. Lisäksi osoitettiin, että leimausreaktio on herkkä, kun käytetään optimaalista puskuria ja optimipitoisuuksia. Jatkotutkimuksissa myös FITC-liuoksen valmistamiseen pitää kiinnittää paljon huomiota.
  • Mikkonen, Toni (2021)
    Tutkielman tarkoituksena on arvioida tietotekniikan käytön kognitiivisia vaikutuksia lukion fysiikan ja matematiikan opetuksessa. Tutkielma on pääasiallisesti kirjallisuuskatsaus, mutta siihen sisältyy myös haastatteluaineiston analyysi. Kirjallisuusosiossa selvitämme, millaisia toimenpiteitä Suomessa on lukiokoulutuksen digitalisaation suhteen tehty, ja pyrimme muodostamaan kokonaiskuvan digitalisaation nykytilasta. Lisäksi perehdymme tietotekniikan opetuskäyttöä käsittelevään kognitiivisen psykologian tutkimukseen. Määrittelemme oppimisen kognitiivisena prosessina ja käsittelemme tunnetilojen, motivaatiotekijöiden ja psykologisten perustarpeiden merkitystä sen kannalta. Seuraavaksi käymme läpi tutkimustietoa hakukoneiden, sähköisten tekstilajien, sähköisten oppimisympäristöjen ja symbolisen laskennan vaikutuksista muistin, luetunymmärtämisen, ongelmanratkaisun ja keskittymiskyvyn kaltaisiin kognitiivisiin toimintoihin. Myös tietotekniikan käytön sekä fysiikan ja matematiikan oppimistulosten välinen suhde on tutkielman kannalta keskeinen näkökulma. Kokeellisessa osiossa analysoimme tietotekniikan opetuskäyttöä koskevaa haastatteluaineistoa kirjallisuusosiossa käsiteltyjen havaintojen perusteella. Haastatteluaineisto koostuu viiden suomalaisen lukiossa työskentelevän fysiikan ja matematiikan opettajan haastattelujen yleiskielisistä litteroinneista. Analyysin tavoitteena on avata tutkimuskirjallisuudesta näkökantoja reaalimaailman luokkahuoneisiin. Lisäksi kuulemme opettajien subjektiivisia näkemyksiä digiloikan toteuttamisesta, onnistumisesta ja tulevaisuuden visioista. Tiivistämme tutkimuskirjallisuuden ja haastatteluaineiston pohjalta tekemämme havainnot viideksi nyrkkisäännöksi, joiden tavoitteena on tuoda tietotekniikasta opetustilanteisiin mahdollisimman paljon lisäarvoa hilliten samalla sen haittavaikutuksia. Säännöissä korostuu erityisesti sähköisten oppimateriaalien ja oppimisympäristöjen oikeaoppinen suunnittelu sekä niiden luokkahuonekäyttö. Nämä viisi sääntöä määrittelemme seuraavasti: 1. tuetaan opiskelijan itsesäätelyä, 2. luodaan valinnanvapauden illuusio, 3. rakennetaan osaamista jo perusasteella, 4. rajataan tietotekniikalle apuvälineen rooli, ja 5. vältetään digitalisaation pitämistä itseisarvona.
  • Montonen, Markus (2013)
    Terveydenhuollon tietojärjestelmät ovat luotu usean vuosikymmenen aikana ja ne perustuvat usein toisistaan poikkeaviin tekniikoihin, menetelmiin ja standardeihin. Tällaisten keskenään heterogeenisten järjestelmien välinen yhteistoiminta on ollut hankalasti toteutettavissa. Erityisesti kliinisten dokumenttien välitys järjestelmien välillä on vaatinut huomattavasti ihmistyötä. Järjestelmien yhteistoiminnan automatisoimiseksi on esitetty useita standardeja, joista keskeisimmässä asemassa on ollut HL7-organisaation ylläpitämä sanomastandardi. Sen keskiössä on UML-luokkakaaviona esitetty RIM-viitemalli, joka mallintaa kliinisissä dokumenteissa käytetyn käsitteistön. Edelleen viitemallia rajoittamalla voidaan siitä muodostaa profiileja, jotka kuvaavat ainoastaan tiettyä käyttötarkoitusta varten luodun kliinisen dokumentin käsitemallin, jota kutsutaan RMIM-kaavioksi. Siitä voidaan edelleen johtaa XML-skeema, jota käyttämällä viestin toteuttaja voi tarkistaa toteuttamansa viestin oikeellisuuden. XML-skeema ei kuitenkaan yksinään riitä tarkistamaan kaikkea RMIM-kaaviossa määriteltyjä viestin rajoitteita. Tätä varten on kehitetty mallinteet, jotka lisäävät tarkistuksia joko kerronnallisin toteutusoppain tai koneellisesti prosessoitavilla Schematron-tarkistuksilla. Tässä työssä tarkastellaan miten terveydenhuollon järjestelmien välittämien kliinisten dokumenttien kuvaukset määritellään. Lisäksi työssä tarkastellaan Suomen sähköisen lääkemääräyksen kuvausta RIM-viitemallin ja mallinteiden avulla.
  • Syrjänen, Seppo (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2007)
    Delay and disruption tolerant networks (DTNs) are computer networks where round trip delays and error rates are high and disconnections frequent. Examples of these extreme networks are space communications, sensor networks, connecting rural villages to the Internet and even interconnecting commodity portable wireless devices and mobile phones. Basic elements of delay tolerant networks are a store-and-forward message transfer resembling traditional mail delivery, an opportunistic and intermittent routing, and an extensible cross-region resource naming service. Individual nodes of the network take an active part in routing the traffic and provide in-network data storage for application data that flows through the network. Application architecture for delay tolerant networks differs also from those used in traditional networks. It has become feasible to design applications that are network-aware and opportunistic, taking an advantage of different network connection speeds and capabilities. This might change some of the basic paradigms of network application design. DTN protocols will also support in designing applications which depend on processes to be persistent over reboots and power failures. DTN protocols could also be applicable to traditional networks in cases where high tolerance to delays or errors would be desired. It is apparent that challenged networks also challenge the traditional strictly layered model of network application design. This thesis provides an extensive introduction to delay tolerant networking concepts and applications. Most attention is given to challenging problems of routing and application architecture. Finally, future prospects of DTN applications and implementations are envisioned through recent research results and an interview with an active researcher of DTN networks.
  • Saunamäki, Ilari (2023)
    Tavoitteet – Vuoden 2018 syksystä lähtien ylioppilaskokeet ovat järjestetty sähköisesti valtakunnallisesti. Tämä on vaatinut muutoksia sekä matematiikan opetukseen että koekysymyksiin. Muuttuneiden kysymysten ja apuvälineiden johdosta ei ole enää triviaalia, minkälaisia virheitä kokelaat ylioppilaskokeissa tekevät. Tämän tutkielman tavoitteena on valaista käsitystä siitä, mitä virheitä pitkän matematiikan todennäköisyyslaskennan ylioppilaskoetehtävissä tehdään. Tämän lisäksi löytyviä virheitä tarkastellaan tehtävän vaatimusten ja todennäköisyyslaskentaan liittyvien virhekäsitysten valossa ankkuroiden niitä olemassa olevaan tutkimustietoon. Rakenne – Tutkielma lähtee liikkeelle lukion opetussuunnitelman perusteissa 2015 esitettyjen osaamistavoitteiden ja sisältökokonaisuuksien tarkastelulla. Kyseiseen opetussuunnitelmaan perustuvan kurssin, MAA10 Todennäköisyys ja tilastot, kirjaa käytetään tarkastelussa apuna ja sen avulla listataan keskeisimmät kurssin sisällöt, jotta lukija saa käsityksen siitä, mitä kokelaiden tule kurssin aikana oppia todennäköisyyslaskennasta. Seuraavaksi tarkastellaan empiiristä virheiden luokittelumallia, joka on suunniteltu niin, että kaikki virheet on mahdollista luokitella yksikäsitteisesti yhteen kuudesta virheluokasta. Luokittelumallin suunnittelivat Nitsa Movshovitz-Hadar, Orit Zaslavsky ja Shlomo Inbar vuonna 1987. Viimeisenä esitietona tarkastellaan viittä erilaista virhekäsitystä, joiden linkittymistä todennäköisyyslaskentaan on jo tutkittu. Näiden virhekäsitysten osallisuutta virheisiin tullaan tarkastelemaan ensin tehtävän näkökulmasta eli mahdollistavatko jotkin tehtävän vaatimukset tai piirteet tiettyjä virhekäsityksiä. Tämän jälkeen potentiaalisia virhekäsityksiä tarkastellaan vielä löytyneiden virheiden näkökulmasta, jotta nähdään, onko virheissä viitteitä edellä löydettyihin virhekäsityksiin. Menetelmät – Tutkimuksessa tarkastellaan neljää todennäköisyyslaskennan tehtävää vuosien 2019, 2020 ja 2021 ylioppilaskokeista. Tehtävien purkaminen alkaa esimerkkiratkaisusta ja tarkastelusta, mitä oleellisia tietoja ja taitoja kokelaalta vaaditaan tehtävän ratkaisemiseksi. Tämän jälkeen kustakin tehtävästä tutkitaan 100 kokelasratkaisua ja jokaisesta etsitään tehdyt virheet. Virheiden luonteen selvittämiseksi käytetään empiiristä virheluokittelumallia. Tämän jälkeen luokittelun tulosten ja valtakunnallisten tehtäväkohtaisten pistejakaumien avulla pohditaan, kuinka yleisiä kyseiset virheet saattavat olla valtakunnallisella tasolla. Tulokset – Kaksi tutkimuksessa tarkastelluista tehtävistä olivat monialaisia. Näiden tehtävien kohdalla merkittävä osa virheistä tapahtui kohdissa, joissa todennäköisyyslaskenta ei ollut keskiössä. Tämä kuitenkin johtui siitä, että se todennäköisyyslaskennan osa, jonka tietämystä tehtävässä vaadittiin, ei ollut juurikaan perustehtävistä poikkeavaa tai haastavaa. Kahdessa muussa tehtävässä painopiste oli kuitenkin lähes täysin todennäköisyyksissä. Näissä tehtävissä virheet painottuivat lausekkeiden muodostukseen, joissa haasteena olivat ehdolliset todennäköisyydet, yhteenlaskusäännön sekä kertolaskusäännön hyödyntäminen. Virhekäsitysten kautta lähestyttäessä huomattiin, että yksittäisten todennäköisyyslaskennan ylioppilaskoetehtävien perusteella on vaikeaa sanoa perusteellisesti, mikä tai mitkä virhekäsitykset ajattelun takana piilevät. Kuitenkin erään tehtävän kohdalla oli selvästi huomattavissa potentiaalinen virhekäsitys, saatavuus, jonka oleellisena tunnusmerkkinä on taipumus muodostaa tarkasteltava perusjoukko listaamalla kaikki sellaiset tapaukset, jotka henkilö kyseisellä hetkellä sattuu muistamaan. Saatavuus-virhekäsitys saattaa ollakin potentiaalinen tekijä tehtävien kombinatorisissa vaiheissa tapahtuvissa virheissä, mutta tämän todellinen selvittäminen vaatisi tarkempia ja perusteellisempia tutkimuksia.
  • Paananen, Nea (2023)
    Tämän tutkielman tavoitteena oli selvittää, minkälaisia virheitä kokelaat tekevät matematiikan ylioppilaskokeiden prosenttilaskennan tehtävissä, kuinka suuri osa virheistä ovat virhekäsityksiä ja minkälaisia mahdolliset virhekäsitykset ovat. Uusimpien opetussuunnitelmien perusteella prosenttilaskentaa tulee opettaa sekä perusopetuksessa että lukiossa. Siksi on tärkeää tutkia, mihin opettajien kannattaa opetuksessaan kiinnittää enemmän huomiota. Aikaisempien tutkimusten mukaan virhe voi johtua monesta syystä, mukaan lukien virhekäsityksestä. Virhekäsitys sijaitsee syvemmällä tiedon tasolla ja sen korjaaminen vie enemmän aikaa kuin muiden virheiden korjaaminen. Aineisto koostui vuosien 2019–2021 sähköisistä lyhyen ja pitkän matematiikan ylioppilaskokeiden korkeintaan arvosanan C saaneiden kokelaiden vastauksista. Prosenttilaskentaan liittyviä tehtäviä kyseiseltä aikaväliltä löytyi yhteensä 12, mutta yksi monivalintatehtävä jätettiin aineistosta pois. Jokaisesta tehtävästä poimittiin 20 vastausta, jolloin aineisto rakentui yhteensä 220 vastauksesta. Analysointimenetelmänä toimi kvalitatiiviselle tutkimukselle tyypillinen teoriaohjaava sisällönanalyysi. Aineistosta nousi esiin yhteensä kymmenen erilaista virhetyyppiä. Näistä yleisin oli virhekäsitys prosenttilaskennasta (n=95). Virhekäsitysten prosentuaalinen osuus oli 34,30 prosenttia. Virhekäsitykset liittyivät eniten muutos- ja vertailuprosenttien laskemiseen. Toinen prosenttilaskentaan liittyvä yleinen virhekäsitys liittyi prosenttiyksiköiden ja prosenttiosuuksien eroavaisuuksiin. Opettajien olisi hyvä kiinnittää jatkossa enemmän huomiota prosenttilaskennan kertaamiseen ennen ylioppilaskokeita, varmistaa että opiskelijat ymmärtävät prosentin käsitteet ja osaavat näin myös arvioida omien vastauksiensa järkevyyttä.
  • Brander, Mikko (2013)
    Discharge measurements were conducted on four separate sites as part of a joint project between The Water Protection Association of the River Vantaa and Helsinki region and Helsinki University Department of Geosciences and Geography. Results from earlier studies from this project were used to identify potential groundwater-surface water interaction sites at the River Vantaa drainage area. Areas where groundwater was discharging into the river were identified mainly by means of aerial infrared photography over different river sections of the Vantaanjoki drainage area. Evidence of river water infiltrating into the aquifer at these same locations were obtained from water quality studies conducted at groundwater intake plants situated at close proximity to study sites. Discharge measurements were used to confirm and to study groundwater-surface water interaction at selected sites and to compare the used methods in different environments and at river channels with varying characteristics. Studies were conducted on four rivers located at Tuusula, Hyvinkää and Riihimäki municipalities across River Vantaa drainage basin. Study sites were located at sections of the river where the river cuts through locally important aquifers of Jäniksenlinna (River Palojoki), Hyrylä (River Tuusulanjoki), Herajoki (River Herajoki) and Hyvinkää (River Vantaan). Municipal groundwater intake plants were located at close proximity to every study site. Studies were conducted using two different methods. The FlowTracker is designed for wading discharge measurements on smaller river channels and was used on three sites (Jäniksenlinna, Hyrylä and Herajoki). The RiverSurveyor is better suited to larger river channels and was used on two sites (Hyvinkää and Herajoki). Studies were conducted during maximum spring discharge in April and during minimum summer discharge in July. FlowTracker could not be used at Hyvinkää study site due to River Vantaa being too deep even during the summer. Differences of the study sites and their river channels were used in comparing the practicality of the two methods at different circumstances. Locations of the measured river cross sections were chosen so that the first cross section was located before the groundwater discharge area as identified from results from previous studies. Following cross sections were the located in the middle and after this area. Changes in the measured river discharge at each cross section were used to estimate the amount of groundwater discharging into the river or river water infiltrating into the aquifer. Study results indicate that, especially during the low flow season, the accuracy of the used methods is sufficient to differentiate the changes in the river discharge that are caused by groundwater discharging into the river or river water infiltrating into the aquifer. Results also indicate that these processes can greatly influence river discharge on a relatively short distance. Studied rivers can also switch from a gaining stream to a losing stream and then again back to a gaining stream on a very short distance.
  • Leppäkoski, Alexander (2021)
    Tämä tutkielma on laadittu ymmärtämään ja havainnollistamaan johtajuutta osana ohjelmistokehitystä, sekä erityisesti virtuaalisen ohjelmistokehitystiimin johtamista. Tutkielmassa käydään läpi hyvän ohjelmistokehityksen johtamisen määritelmä. Tutkielman menetelminä on käytetty systemaattista kirjallisuuskatsausta aiheeseen liittyvistä teksteistä. Systemaattiset haut on tehty IEEE Xplore, ACM Digital Library ja Scopus -tietokannoista. Lisäksi systemaattista kirjallisuuskatsausta on laajennettu erikseen valituilla lähteillä. Tutkielman tuloksina tunnistettiin useita ohjelmistokehityksen haasteita niin lähityöskentelevässä ohjelmistokehitystiimissä, että virtuaalisessa ohjelmistokehitystiimissä. Tutkielma käy tunnistettuja ohjelmistokehityksen johtajan rooleja ja hyviä ominaisuuksia sekä peilaa niitä kohdattuihin haasteisiin. Tutkielmassa käydään läpi myös virtuaalisen ohjelmistokehityksen tunnuspiirteitä. Tutkielman tuloksena nähdään, että ohjelmistokehityksen johtajalla on saatavilla olemisen lisäksi oltava runsaasti tiimin rakennuksen, motivoinnin, viestinnän, vaikuttamisen ja päätöksentekokyvyn taitoja. Virtuaalisessa ohjelmistokehityksessä johtajan tärkeinä ominaisuuksina korostuvat edellä mainittujen ominaisuuksien lisäksi kyky koordinoida, kommunikoida, sekä olla läpinäkyvä ja yhteistyökykyinen.
  • Myllys, Petri (2017)
    Tiimityöskentely on keskeinen ketterän ohjelmistokehityksen ominaispiirre. Joustavalle yhteistyölle ja muuttuviin tilanteisiin mukautuvalle kehitykselle on oleellista, että kehitystiimin jäsenet ja läheisimmät sidosryhmien edustajat ovat jatkuvassa vuorovaikutuksessa. Samassa tilassa työskenteleminen mahdollistaa hyvin tällaisen vuorovaikutuksen. Etätyöskentelylle ja erityisesti etäyhteistyöskentelylle on kuitenkin nähtävissä kasvava tarve ohjelmistotuotantoprojekteissa: työskentelyn geografinen hajauttaminen tuo muun muassa lisää vaihtoehtoja tiimien muodostamiseen ja vähentää yleisesti työskentelyn sidonnaisuutta tiettyyn paikkaan. Sekä kehitystiimien sisäisessä kommunikaatiossa että sidosryhmäkommunikaatiossa hyödynnetään usein jo tälläkin hetkellä erinäisiä etäyhteyksiä, mutta nykyiset kommunikaatioväylät ovat vajavaisia esimerkiksi yhteiseen, työn visualisointiin perustuvan työn organisoimisen näkökulmasta. Tämä aiheuttaa ristiriidan modernin ketterän kehityksen ja etäyhteistyöskentelyn välille ja edellyttää uudenlaisten etäyhteistyömenetelmien kehittämistä. Tutkielmassa tarkastellaan työn organisoimista ketterässä ohjelmistokehityksessä ja tämän suhdetta etätyöskentelyyn. Etäyhteistyön tukemista ketterän kehityksen kontekstissa tutkittiin kehittämällä web-pohjainen virtuaalitodellisuuteen perustuva sovelluskonstruktio, jonka fokuksena oli tyypillisten ketterälle kehitykselle ominaisten kokousten mahdollistaminen etäyhteistyöympäristössä. Konstruktion välityksellä havaittiin, että virtuaalitodellisuuden avulla voidaan saavuttaa uudenlaisia etuja perinteisiin etäyhteistyöväyliin nähden: virtuaalitodellisuus tarjoaa mahdollisuuden vuorovaikutuksen spatiaalisen aspektin huomioimiseen sekä artefaktien parissa yhdessä työskentelemisen yhdistämiseen yhdeksi kokonaisuudeksi äänipohjaisen kommunikoinnin kanssa. Toisaalta modernien web-teknologioiden suhde virtuaalitodellisuuteen ei ole ongelmaton, ja ratkaisumallin vaillinainen teknologinen maturiteetti edellyttää kompromisseja toteutustasolla.
  • Granberg, Filip (2018)
    Avhandlingens mål var att studera en virtuell laboration inom optisk fysik, noggrannare sagt ljusets brytning. I avhandlingen forskades studerandes åsikter, missuppfattningar som uppstod och hur studeranden kunde konkretisera den virtuella laborationens kunskap i verkligheten. Deltagarna i forskningen studerade matematiskt-naturvetenskapliga ämnen, varav en del studerade fysiker första året vid Helsingfors universitet. Forskningen gick ut på att deltagarna utförde den virtuella laborationen ”Bending light” (https://phet.colorado.edu/en/simulation/bending-light 1.8.2018). Under laborationen svarade deltagarna skriftligt på uppgifter om laborationen. Efter laborationen frågades tre situationsuppgifter genom att utnyttja den virtuella laborationens grafik. Deltagarna intervjuades före och efter de utfört laborationen. Deltagarnas skriftliga svar, muntliga svar och intervjuer användes för analysen. Slutsatsen som drogs i avhandlingen var att den virtuella laborationen fick god feedback av deltagarna. Missuppfattningarna som uppstod hos deltagarna kunde inte endast läggas på den virtuella laborationens axlar. Dock märktes det att den virtuella laborationens uppbyggnad, som liknade brytningsscheman, hade samma problem som då man lär sig ljusets brytning strikt via brytningsscheman. Deltagarnas förmåga att planera en verklig laboration blev bättre hos majoriteten av deltagarna.
  • Uitto, Jara (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2011)
    Modern smart phones often come with a significant amount of computational power and an integrated digital camera making them an ideal platform for intelligents assistants. This work is restricted to retail environments, where users could be provided with for example navigational instructions to desired products or information about special offers within their close proximity. This kind of applications usually require information about the user's current location in the domain environment, which in our case corresponds to a retail store. We propose a vision based positioning approach that recognizes products the user's mobile phone's camera is currently pointing at. The products are related to locations within the store, which enables us to locate the user by pointing the mobile phone's camera to a group of products. The first step of our method is to extract meaningful features from digital images. We use the Scale- Invariant Feature Transform SIFT algorithm, which extracts features that are highly distinctive in the sense that they can be correctly matched against a large database of features from many images. We collect a comprehensive set of images from all meaningful locations within our domain and extract the SIFT features from each of these images. As the SIFT features are of high dimensionality and thus comparing individual features is infeasible, we apply the Bags of Keypoints method which creates a generic representation, visual category, from all features extracted from images taken from a specific location. A category for an unseen image can be deduced by extracting the corresponding SIFT features and by choosing the category that best fits the extracted features. We have applied the proposed method within a Finnish supermarket. We consider grocery shelves as categories which is a sufficient level of accuracy to help users navigate or to provide useful information about nearby products. We achieve a 40% accuracy which is quite low for commercial applications while significantly outperforming the random guess baseline. Our results suggest that the accuracy of the classification could be increased with a deeper analysis on the domain and by combining existing positioning methods with ours.
  • Wang, Ruilin (2023)
    This thesis is an integral part of an interdisciplinary research endeavor that provides computer science-driven approaches and deep learning methodologies that seamlessly integrate into the broader research conducted by scholars in the field of digital humanities and historians. Utilizing deep learning techniques, this research investigates the printers and publishers of 18th-century books, with a specific focus on the prominent family-based printing dynasty called Tonson. By identifying common visual elements, the thesis facilitates a comparative analysis of associations between different printers, providing valuable insights into the historical context and artistic characteristics of the Tonson dynasty. The thesis begins by discussing various deep learning models trained on an expert-annotated dataset, enabling the extraction of five main categories and sixteen subcategories of visual elements. Notably, the MaskRCNN model demonstrates superior performance, particularly in detecting headpieces and initials. The study then delves into the grouping of initials and headpieces within the dataset. The Sim CLR model is employed using data augmentation techniques that simulate the inherent noise present in the dataset. This enables the generation of distinct embeddings for each initial and headpiece. Various unsupervised learning methods are applied, with Hierarchical Clustering emerging as the most effective technique. Higher similarity scores for headpieces compared to initials indicate greater ease in identifying similar headpieces. We further discuss the potential applications from a historical perspective including book pricing, future avenues for accurately identifying related printers, and temporal research concerning the Tonson dynasty. In conclusion, this thesis presents a novel integration of computer science and deep learning methodologies within the field of digital humanities and historical studies. By focusing on the Tonson dynasty, it provides a comprehensive analysis of printers and publishers in 18th-century books, ultimately contributing to a deeper understanding of this historical period.
  • Sallinen, Emmi (2013)
    Tässä tutkimuksessa muodostettiin kohdearkkitehtuurikuvaus visualisointipalvelulle. Tutkimus on osa Maanmittauslaitoksen Maastotietokannan tietotuotteiden visualisointipalvelun pilotti -projektia. Tutkimuksen tarkoituksena oli muodostaa kohdearkkitehtuuri aineiston siirrosta verkkopalveluun ja sen visualisoinnista käyttäen avoimen lähdekoodin rajapintoja, ohjelmistoja ja niihin soveltuvia standardeja. Menetelmänä käytetty Julkisen hallinnon suosituksen mukainen kohdearkkitehtuuri sisältää neljä eri arkkitehtuurinäkökulmaa: toiminta-arkkitehtuuri, tietoarkkitehtuuri, tietojärjestelmäarkkitehtuuri ja teknologia-arkkitehtuuri. Näiden avulla määriteltiin visualisointipalvelun strateginen ja toiminnallinen lähtökohta, tekniikat, sen komponentit ja yhteydet muihin Maanmittauslaitoksen järjestelmiin. Kohdearkkitehtuurin suunnittelun mukaisesti tutkimuksen osana tehtiin erilaisia UML-notaatiota noudattavia kaavioita ja käytettiin muita visuaalisia kuvauskeinoja. Arkkitehtuurin onnistumista arvioitiin Valtiovarainministeriön arkkitehtuuriperiaatteiden avulla. Pilottiprojektissa aineistona käytettiin Maanmittauslaitoksen Maastotietokantaa MTK-GML-formaatissa. Visualisoitavana pilottituotteena tässä tutkimuksessa keskityttiin 1:5 000 Taustakarttatuotteeseen. Aineiston viemiseen tietokantaan käytettiin XSL-muunnoksia, aineiston visualisointiin SLD-tekniikkaa ja karttakuva selaimessa esitettiin WMS-rajapinnan kautta. Aineistoa tuotiin palveluun myös WFS-rajapinnan kautta. Tietokantana pilottiprojektissa oli PostGIS ja palvelinohjelmistona GeoServer. Palvelun ja erityisesti käyttöliittymän suunnittelussa käytettiin apuna Googlen Styled Maps Wizardia, CloudMade Style Editoria ja MapBoxia, jotka ovat verkosta löytyviä valmiita visualisointipalveluita. Tutkimuksessa osoittautui, että näiden keskinäiset erot visualisointiprosessin sujuvuudessa olivat huomattavia. CloudMaden Style Editor osoittautui parhaimmaksi palveluksi sen tarjotessa eniten mahdollisuuksia aineiston visualisointiin. Tässä palvelussa oli myös selkein käyttöliittymä. Tutkimuksessa MTK-GML-formaatin aineiston siirto tietokantaan XSL-muunnoksen avulla oli haastavaa, koska osoittautui että MTK-GML-skeema sallii tiettyjä epäjohdonmukaisuuksia aineistossa. PostGIS-tietokanta ja GeoServer-palvelinohjelmisto olivat sopivia visualisointipalvelun toteutukseen. GeoServerin tuki ulkopuolelta tulevalle WFS-rajapinnalle osoittautui puutteelliseksi, mutta se ei merkittävästi vaikeuttanut visualisointipalvelun pilotointia. Tutkimuksessa SLD-tekniikan todettiin sopivan hyvin Taustakartta-tyyppisen tietotuotteen visualisointiin. SLD tarjosi erinomaiset mahdollisuudet graafisten muuttujien parametrisointiin. Käyttöliittymän suunnittelussa määriteltiin visualisointipalvelun käyttöliittymän käyttötapaukset ja yksinkertainen ulkoasumalli käyttöliittymän komponenteista. Käyttötapauksien luokittelussa päädyttiin määrittelemään käyttötapaukset erikseen kullekin kohdetyypille. Käyttötapauksia on paljon ja jatkossa visualisointimahdollisuudet on tärkeä saada selkeästi esille käyttöliittymään. Käyttöliittymän suunnittelussa hyödynnetään jatkossa muita Maanmittauslaitoksen projekteja ja Pohjoismaista yhteistyötä. Tutkimuksen mukaan arkkitehtuuriperiaatteet tulivat noudatetuiksi hyvin. Joihinkin periaatteisiin olisi voitu vastata paremmin, mutta näistä poikkeaminen oli hyvin perusteltavissa. Aineistot ja menetelmät soveltuivat visualisointipalvelun pilotointiin. Jatkossa MTK-GML-aineiston epäjohdonmukaisuudet tulevat korjaantumaan. Tavoiteltu arkkitehtuuri visualisointipalvelulle saatiin muodostettua ja sen kohdearkkitehtuuri määriteltyä tavoitetilan mukaiseksi. Kohdearkkitehtuuri sopii menetelmänä visualisointipalvelun kaltaisen järjestelmän suunnitteluun.
  • Tanninen, Mika (Helsingin yliopistoUniversity of HelsinkiHelsingfors universitet, 2005)
    Visualisointitekniikoita on tutkittu paljon, mutta yleensä tutkimuksissa keskitytään vain tekniikoiden teknisiin ominaisuuksiin. Tämän työn tavoitteena on tarkastella, kuinka eri visualisointitekniikat tukevat käyttäjää hänen konkreettisessa valintatilanteessaan. Vertailutyökaluna käytetään realistista autonvalintatilannetta, jonka ratkaisemisessa hyödynnetään visualisointeja. Käytettävyystestien avulla selvitetään, mitä hyötyjä ja ongelmia tutkittavien visualisointitekniikoiden käytössä ilmenee ja onko tehtävien suorittaminen jollakin tekniikalla helpompaa tai vaikeampaa kuin toisella. Lisäksi tutkitaan, millaisia käytettävyysongelmia tekniikoissa on, ja onko esille tulleet ongelmat mahdollisesti onnistuttu kiertämään jossain toisessa tutkittavassa tekniikassa. Testien perusteella yksikään tutkittu visualisointitekniikka ei tukenut käyttäjän valintatilannetta ongelmattomasti. Testitulosten pohjalta laaditulla merkkipohjaisen taulukkomuodon ja pylväsdiagrammien yhdistelmällä visualisointitekniikoita vaivanneet ongelmat olisivat kuitenkin mahdollisesti ratkaistavissa.
  • Harjama, Noora (2020)
    The seismic reflection methods produce high-resolution images from the subsurface, which are useful in structural studies of geology. Northern Finland features a complex Precambrian geological history, including massive extension and compression stages, which has been extensively studied. The xSoDEx survey is the most recent seismic survey carried out in northern Finland by the Geological Survey of Finland (GTK). The XSoDEx concluded four survey lines, which are located in Central Lapland Greenstone Belt (CLGB) in Sodankylä, Lapland. This thesis aims to find out whether the strong reflections shown in the xSoDEx Alaliesintie reflection profile, underneath the outcropping Archaean basement indicate a lithological contact or a fault zone. The Alaliesintie profile is characterized by Koitelainen intrusion, Archaean outcrops, and layers of younger Paleoproterozoic group rocks. The work was carried out in stages, with the use of the SKUA - GOCAD 3D modeling software. The four stages are: 1. Create a 3D geological model based on the Alaliesintie reflection section and geological bedrock observations. 2. Use gravity and magnetic geophysical data from the study area to improve model reliability. 3. Use the geological 3D model and petrophysical data to build a synthetic seismic forward mode. 4. Analyze and evaluate the modeling result for understanding the possible origins of the reflections. In the geological 3D model, I presented that the reflection would present lithological contacts and that the Archean bedrock would have folded and partly overthrust on top of the younger Proterozoic rocks. The seismic forward model is used as an experiment to test the geological 3D model’s lithological contact respondence to the synthetic seismic signal and to discover the possible reflector underneath the Archaean basement. The results present that the seismic forward model can be used to perform the reflections and that the geological 3D model presented similar reflections in the seismic forward model comparing to the original Alaliesintie reflection data.
  • Kovapohja, Fanni (2022)
    Time-dependent hierarchical data is a complex type of data that is difficult to visualize in a clear manner. It can be found in many real-life situations, for example in customer analysis, but the best practices for visualizing this type of data are not commonly known in business world. This thesis focuses on visualizing changes over time in hierarchical customer data using the Plotly Python Graphing Library and is written as an assignment for a Finnish company. The thesis consists of a literature survey and experimental part. The literature survey introduces the most common hierarchical visualization methods, and the different possible encoding techniques for adding time dimension on top of these hierarchical visualization methods. Moreover, the pros and cons of different visualization techniques and encodings are discussed about. In the experimental part of the thesis, visualization prototypes are designed using the Plotly Python Graphing Library. A company customer data set of the commissioning company is partitioned into hierarchical customer segments by a hierarchical industrial classification TOL 2008, and changes over time in a continuous variable are visualized by these segments. Two hierarchical visualization techniques: the sunburst chart and treemap, are used to create two prototype versions, and the combination of color, typography, and interaction is used to encode time dimension in these prototypes. The same prototypes are also exploited to visualize customer segments by an artificial hierarchy created by combining multiple categorical features into a hierarchical structure. The prototypes are validated in the commissioning company by arranging an end user study and expert review. Concerning the prototypes by the industrial classification: According to the end users and experts, both prototype versions are very useful and well-implemented. Among the end users, there was no significant difference in which one of these prototype versions is faster to use, but the clear majority of the respondents regarded the sunburst chart version as their favorite prototype. The two experts who participated in the expert review had different opinions on which one of the prototype versions they would select to be utilized in practice. Concerning the prototypes by the artificial hierarchy: These prototypes also received positive feedback, but the possibility to change the order of features in the hierarchy was considered as an extremely important development idea. ACM Computing Classification System (CCS): Human-Centered Computing → Visualization → Visualization Techniques Human-Centered Computing → Visualization → Empirical Studies in Visualization
  • Holappa, Hilma (2022)
    Electronic Health Records (ERH) data is one datatype that is continuously produced by hospitals all over the world. There is multiple different applications for this data; one of them is MIMIC dataset which applications are focused on machine learning, however, there is lack of visualisation of this dataset. Topic of this thesis is visualising ERH and more specifically the MIMIC dataset to help medical students gather insights into individual patient data. Considerations implementing this dataset to an individual patient visualisation are also examined. In thesis I first familiarized myself with interactive visualisation design principles with Munzners method. In the first stage I built a preliminary visualisation and gathered feedback with user inter- views. At the second stage I built a final visualisation and gathered final feedback and insights with user interviews. Visualisation consists of a dot graph for medication, line graph for patient response and table with diagnoses. The insights were analysed with Framework Method for qualitative data analysis. From the feedback for the visualisation and the insights gathered it is concluded that there are some issues that need to be taken in account when considering this dataset for individual patient visualisations. Insights from this visualisation were mostly factual and this type of visualisation seems to be slightly too challenging to medical students for more deep insights. Medication graph part of the final visualisation was seen as possible addition to current patient visualisations used in hospitals and the idea of using this visualisation as a teaching tool could only be considered with further additions and a different dataset.
  • Malmberg, Anni (2020)
    A population is said to be genetically structured when it can be divided into subpopulations based on genetic differences between the individuals. As in case of Finland for example, the population has been shown to consist of genetic subpopulations that correspond strongly to geographical subgroups. Such information may be interesting when seeking answers to questions related to the settlement and migration history of some population. Information about genetic population structure is also required for example in studies looking for associations between genetic variants and some inheritable disease to ensure that the groups with and without diagnosis of the disease resemble each other genetically except for the genetic variants causing the disease. In my thesis, I have compared how two different mathematical models, principal component analysis (PCA) and generative topographic mapping (GTM), visualize ancestry and identify genetic structure in Finnish population. PCA was introduced already in 1901, and nowadays it is a standard tool in identifying genetic structure and visualizing ancestry. GTM instead was published relatively recently, in 1998, and has not yet been applied in population structure studies as widely than PCA. Both PCA and GTM transform high-dimensional data to a low-dimensional, interpretable representation where relationships between observations of the data are summarized. In case of data containing genetic heterogeneity between individuals, this representation gives a visual approximation of the genetic structure of the population. However, Hèlèna A. Gaspar and Gerome Breen found in 2018 that GTM is able to classify ancestry of populations from around the world more accurately than PCA: the differences recognized by PCA were mainly between geographically most distant populations, while GTM detected also more their subpopulations. My aims in the thesis were to examine whether applying the methods for Finnish data would give similar results, and to give thorough presentations of the mathematical background for both the methods. I also discuss how the results fit into what is currently known about the genetic population structure in Finland. The study results are based on data from the FINRISK Study Survey collected by the National Institute for Health and Welfare (THL) in 1992-2012 and include 35 499 samples. After performing quality control on the data, I analysed the data with SmartPCA program and ugtm Python package implementing PCA and GTM, respectively. The final results have been presented for such 2010 individuals that participated the FINRISK Study Survey in 1997 and whose both parents were born close to each other. I have assigned the individuals into distinct geographical subgroups according to the birthplaces of their mothers to find out whether PCA and GTM identify individuals having a similar geographical origin to be genetically close to each other. Based on the results, the genetic structure in Finland is clearly geographically clustered, which fits into what is known from earlier studies. The results were also similar to those observed by Gaspar and Breen: Both the methods identified the genetic substructure but GTM was able to recognize more subtle differences in ancestry between the geographically defined subgroups than PCA. For example, GTM discovered the group corresponding to the region of Northern Ostrobothnia to consist of four smaller separate subgroups, while PCA interpreted the individuals with a Northern Ostrobothnian origin to be genetically rather homogeneous. Locating these individuals on the map of Finland according to the birthplaces of their mothers reveals that they also make four geographical clusters corresponding to the genetic subpopulations detected by GTM. As a final conclusion I state that GTM is a noteworthy alternative to PCA for studying genetic population structure, especially when it comes to identifying substructures from a population that PCA may interpret to be genetically homogeneous. I also note that the reason why GTM generally seems to be capable of more fine-grained clustering than PCA, is probably that PCA as a linear model may cause more bias to the results than GTM which accounts for also non-linear relationships when transforming the data into a more interpretable form.
  • Paavilainen, Saara (2016)
    In light of increasing trend in migration from Africa to Europe, it is crucial to consider our perception towards different cultures, religions and nations. During the colonialism, Africans were targets of racial othering, in which the African continent and its people were represented as subaltern, compared to Europe. Previous studies show that the racial stereotypes of Africa are still visible today, and while colonialism is generally regarded as something that happened between the core and distant periphery in the past, colonized/colonizer experiences are inherently visible also today and even in the Nordic countries. Today, humanitarian aid agencies are in a central role in framing the continent for the Western audience. Many of the familiar Africa discourses are from the framework of aid. Non-governmental organizations remain in a key position creating the image of developing world through their communication. However, the emphasized aid agenda further compromises the image of the continent. The purpose of this thesis is to critically explore the different ways NGOs in Finland represent Sub-Saharan Africa and Africans in their visualization. The aim is to critically view the contemporary image of Africa in Finland produced by NGOs and connect the representations to the wider theoretical discussion on representations of Africa. Methodological basis of this study is set in constructionism, which views the world as a socially constructed process, in which the social reality and language reflect but also create the world we live in. NGOs' representations of Africa reflect our world view but they also actively create it through their materials. The thesis will draw from approaches of post-colonialism and the concepts of otherness and paternalism and uses methods of content and discourse analysis in order to deconstruct the discursive formations behind the representations of Sub-Saharan Africa. Results show that representations of NGOs concentrate on positive imagery, showing Africa as exotic and colorful and personalize the continent with showing mostly images of people who are active and contented. However, the continent and its people are still represented as 'other' compared to Europe, even if in more positive light. Representations fail to address the diversity of Africa and its political and economic position in the world. Moreover, the dominant development discourses of neoliberalism are visible in massive amount of photos showing active and efficient people, especially women. However, recently, NGOs have started providing more 'mixed messages', which show Sub-Saharan Africa in more truthful light without exaggerating its problems or glossing over the real issues. By implementing the post-colonial development discourse to humanitarian communication, NGOs would be able to bring out the real voices of non-Western people and embed the indigenous knowledge to their visualizations.
  • Sinisalo, Erkki (2022)
    This thesis investigates the problem of Visual Simultaneous Localization and Mapping (vSLAM) in changing environments. The vSLAM problem is to sequentially estimate the pose of a device with mounted cameras in a map generated based on images taken with those cameras. vSLAM algorithms face two main challenges in changing environments: moving objects and temporal appearance changes. Moving objects cause problems in pose estimation if they are mistaken for static objects. Moving objects also cause problems for loop closure detection (LCD), which is the problem of detecting whether a previously visited place has been revisited. A same moving object observed in two different places may cause false loop closures to be detected. Temporal appearance changes such as those brought about by time of day or weather changes cause long-term data association errors for LCD. These cause difficulties in recognizing previously visited places after they have undergone appearance changes. Focus is placed on LCD, which turns out to be the part of vSLAM that changing environment affects the most. In addition, several techniques and algorithms for Visual Place Recognition (VPR) in challenging conditions that could be used in the context of LCD are surveyed and the performance of two state-of-the-art modern VPR algorithms in changing environments is assessed in an experiment in order to measure their applicability for LCD. The most severe performance degrading appearance changes are found to be those caused by change in season and illumination. Several algorithms and techniques that perform well in loop closure related tasks in specific environmental conditions are identified as a result of the survey. Finally, a limited experiment on the Nordland dataset implies that the tested VPR algorithms are usable as is or can be modified for use in long-term LCD. As a part of the experiment, a new simple neighborhood consistency check was also developed, evaluated, and found to be effective at reducing false positives output by the tested VPR algorithms.