Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by discipline "Computer science"

Sort by: Order: Results:

  • Raatikainen, Annamari (2016)
    Sosiaali- ja terveydenhuolto koostuu hyvin erilaisista ja laeilla voimakkaasti säädellyistä palveluista. Toimintakäytännöt ovat kehittymässä nykyisistä pääasiassa erillisistä sosiaali- ja terveydenhuollon toimintaprosesseja ja niitä palvelevista tietojärjestelmistä kohti sosiaali- ja terveydenhuollon yhteisiä palveluita ja prosesseja. Tulevan sosiaali- ja terveydenhuollon sote-uudistuksen sekä sote-palvelujen integroitumisen myötä jatkossa vaaditaan myös tietojärjestelmiltä tiiviimpää yhteentoimivuutta ja integraatiota. Terveydenhuollossa yleisesti käytetyt kansainväliset Health Level 7 -integraatioratkaisut on otettu osaksi myös kansallisen terveydenhuollon arkiston standardisalkkua. Kun kansallinen Kanta-arkisto laajennetaan lähivuosina kattamaan myös sosiaalihuollon asiakirjat, on syntynyt kiinnostus hyödyntää terveydenhuollon arkiston ratkaisuja myös sosiaalihuollon tiedonvälitykseen. Työssäni kuvaan lyhyesti suomalaisen sosiaali- ja terveydenhuollon toimintaympäristöä ja toimialalla käytettyjen asiakas- ja potilastietojärjestelmien nykyhetken ja kehittämisen tilannetta. Esittelen terveydenhuollon tietojenvälityksessä kansainvälisesti laajasti käytössä olevan ja Suomen kansallisen terveydenhuollon arkiston standardisalkuun otetun Health Level 7 (HL7) standardin historiaa sekä maailmanlaajuisesti käytetyimmät viestinvälitysstandardit HL7 v2 ja v3 MR sekä HL7 CDA dokumenttistandardin. Esittelen myös vielä kokeilukäytössä olevan seuraavan sukupolven HL7 FHIR-standardin, joka tulee olemaan mukana kansallisen sosiaalihuollon arkiston standardisalkussa ja jota on ehdotettu myös kansalaisen Omakanta-palvelun viestiratkaisuksi. Esittelen Suomessa tehtyjä selvityksiä HL7 standardiperheen soveltuvuudesta sosiaalihuollon tietojen välitykseen sekä arvioin terveydenhuollon arkiston tarpeisiin tehtyjen ratkaisujen siirrettävyyttä sosiaali-huollon arkistopalveluun. Työn lopussa pohdin sosiaali- ja terveydenhuollon kasvavan kansallisen ohjauksen vaikutuksia toimialojen tietojärjestelmäkehitykseen.
  • Tuohenmaa, Timi (2013)
    Tutkielmassa perehdyttiin hajautetun HLA-simulointiarkkitehtuurin suorituskykyyn reaaliaikaisen simulaattorin toteutuksen kannalta. Aluksi esitellään erilaisia simulaation tyyppejä ja niihin liittyviä simulaattorijärjestelmien toteutuksia. Sen jälkeen kuvataan tarkemmin tähän tutkielmaan valitun HLA-simulointiarkkitehtuurin toimintamallia sekä sen erityispiirteitä. Työssä kerrotaan minkälaisia vaatimuksia reaaliaikaisuus ja hajautettavuus simulointijärjestelmälle aiheuttavat ja miten HLA pystyy näihin kohtiin vastaamaan. Koska HLA ei tarjoa yksiselitteisiä vastauksia moniin kohtiin, tutkielma esittelee vaihtoehtoja ja syitä valita mitäkin niistä. Joihinkin kohtiin etsitään myös kiertoteitä tai perustellaan miksi ongelma voidaan jopa jättää ratkaisematta tietynlaisissa käyttötapauksissa. Tutkielmassa esitellään myös suorituskykymittauksia, joita voi hyödyntää valitessa toteutusmalleja ja etsiessä olemassa olevan simulaattorin pullonkauloja. Case-tapauksena esitellään merenkulkusimulaattori, jossa kehitystyössä hyödynnetään tutkielmassa selvitettyjä ongelmakohtia ja hyödynnetään joitain toteuttamismalleja. ACM Computing Classification System (CCS): C.2.4 [Distributed Systems], I.6.3 [Applications], I.6.7 [Simulation Support Systems], I.6.8 [Types of Simulation]
  • von Kügelgen, Maria (2014)
    A significant number of people have problems with the batteries of their mobile devices. There are several energy saving applications available to tackle those problems. Most of them increase battery life mostly by automatically closing applications or operations. The user is for the most part unaware of what the energy saving application actually does. Therefore, even though the battery might last somewhat longer, the user may continue using behavioral patterns that drain the battery. There is little evidence to support the assumption that battery awareness applications lead to behavioral changes. Therefore, we decided to conduct a research on how a mobile awareness application called Carat is used, and how the behavior of its users changes over time. The study was carried out in two phases. In the first part of the study, we conducted a user survey, and studied the Carat log data of the devices represented in the survey. We found out that the behavior changes over time; there were significant differences between new Carat users, and the more experienced ones. The more experienced users had reduced their use of problematic applications more, were interested in different features of Carat, and opened it less often. In the second part of the study, we studied how new Carat users used Carat and what they thought of using it. They were interviewed twice, and they also wrote in a web diary about their experiences. We found out that the main difference in their thinking was the increase in overall awareness about applications as something that affects battery life. We also found out that inadequate, uninteresting and unclear information causes confusion and frustration, and decreases the likelihood of users sticking with Carat.
  • Mielonen, Mika (2013)
    Mobiililaitteiden suosion kasvun myötä Web ja erilaiset sovellukset ovat yhä tärkeämpi osa ihmisten jokapäiväistä elämää. Samalla verkkosivujen ja sovellusten suunnittelulta ja toteutukselta edellytetään yhä monipuolisemmaksi kasvavan laitekannan huomioimista, sillä informaation odotetaan olevan saavutettavissa laitteesta riippumatta. Jatkuvasti kehittyvät avoimet Web-tekniikat ja niiden keskiössä oleva HTML5 voidaan yleisesti nähdä kustannustehokkaana ratkaisuna eri näyttökokojen ja sovellusalustojen kattamiseen, koska yhteisenä tekijänä eri laitteissa on selain. Erilaisten Web-sovellusten yleistyessä niiden toteutukset pohjaavat yhä enemmän sovelluslogiikan siirtämiseen palvelimelta selaimeen, ja yksisivuinen sovellusmalli (SPA-malli) on muodostumassa merkittäväksi. Tässä pro gradu –tutkielmassa tarkastellaan HTML5:n nykytilaa ja tulevaisuuden mahdollisuuksia erityisesti Web-sovelluksille hyödyllisten piirteiden ja sovellusliittymien kautta, kun vertailukohtana ovat alustakohtaiset (iOS, Android jne.) tekniikat. Tutkielman empiriaosassa näkökulmaa tarkennetaan laajan laitekannan tuen mahdollistaviin HTML5:n osiin, SPA-malliin, sekä sovellusarkkitehtuurin erityispiirteisiin, joihin perehdytään SAK:n responsiivisen verkkosivuston, sekä sen taustajärjestelmän tarjoaman esimerkin avulla. Johtopäätöksinä todetaan, että avoimien Web-tekniikoiden tarjoamat edut tulevat jatkossa yhä korostumaan alustakohtaisiin tekniikoihin nähden. SPA-mallin huomattiin parantavan käyttökokemusta tavallisiin verkkosivustoihin verrattuna, vaikka tarkastelun kohteessa mallia ei hyödynnetty parhaalla mahdollisella tavalla. Laajalle laitekannalle suunnatun toteutuksen todettiin edellyttävän huomiota latausaikoihin, käyttökokemukseen, laitetukeen ja sovellusarkkitehtuuriin, jonka sopivana lähtökohtana voidaan pitää Web-käyttöön suunniteltuja MVC-sovelluskehyksiä niiden tarjoaman selkeän rakenteen ansiosta, sekä JavaScriptin käyttöä taustajärjestelmästä alkaen erityisesti esimerkin kaltaisilla sisältörikkailla verkkosivustoilla. Mobiilioptimointi todettiin hyödylliseksi ja mahdolliseksi toteuttaa ilman erityistä sovelluksen kompleksisuuden lisääntymistä.
  • Airola, Taru (2017)
    Tiimityöskentely ja voimavarojen yhdistäminen ovat olennainen osa nykyaikaista ohjelmistokehitystä. Viime vuosien ohjelmistoyritysten menestystarinoiden takana on usein joukko ihmisiä, jotka yhdessä muodostavat huipputuottavan ohjelmistotiimin (high-performing software team). Huipputuottavat ohjelmistotiimit ovat tiimejä, jotka suoriutuvat tehtävistään merkittävästi keskivertotiimiä paremmin. Huipputuottaviin tiimeihin kuuluvilla henkilöillä on oikeat taidot, tavoitteet ja asenteet tehtävien suorittamiseksi. He ovat erityisen sitoutuneita työhönsä, sekä toisiinsa. Tiimin tuottavuutta voidaan arvioida esimerkiksi tarkastelemalla tuotteen myyntiä tai arvioimalla tuotteen laatuominaisuuksia. Huipputuottavan ohjelmistotiimin rekrytoiminen saattaa olla hankalaa, sillä mikään ennalta määritelty toimi ei näytä takaavan huipputuottavan tiimin muodostumista, koska siihen vaikuttavat useat eri muuttujat. Rekrytoinnissa voi kuitenkin pyrkiä etsimään oman yrityksen kulttuuriin sopivaa ja tietotaidoiltaan oikeanlaista henkilöä. Ennen rekrytointia on hyvä selvittää, minkälaista henkilöä ja osaamista yritykseen tarvitaan. Rekrytointiin voi käyttää useita erilaisia keinoja. Yksi vaihtoehto on etsiä sopivaa henkilöä oman yrityksen sisältä, tai kysyä suosituksia nykyisiltä työntekijöiltä. Lisäksi sosiaalinen media on jatkuvasti kasvava rekrytointikanava varsinkin nuorempien henkilöiden keskuudessa. Osana tutkielmaa haastateltiin kuuden suomalaisen ohjelmistoyrityksen edustajia yritysten rekrytointitapojen selvittämiseksi. Haastatteluissa nousi esiin, että yritysten mielestä rekrytoinnissa oli tärkeää haettavan henkilön sopivuus yrityksen kulttuuriin, mihin liittyy esimerkiksi henkilöiden asenteet, arvot ja sosiaaliset taidot. Yrityksissä arvostettiin oma-aloitteisuutta, itsensä kehittämistä ja konsulttimaisuutta. Lisäksi tekniset taidot olivat tärkeä arvioitava asia. Kaikkien yritysten rekrytointiprosessiin kuului ainakin yleinen haastattelu ja tekninen haastattelu. Henkilöiden osaamista ja asenteita arvioitiin erilaisten haastattelujen avulla, joista osassa haastateltavalle annettiin ratkaistavaksi teknisiä tehtäviä. Haastattelujen perusteella omien työntekijöiden suositukset olivat tärkein lähde hyvien työntekijöiden löytämiseen. Myös sosiaalinen media ja perinteiset työpaikkailmoitukset olivat tärkeä osa rekrytointiprosessia.
  • Rasi, Eeva (2014)
    Terveystaltio kokoaa yhteen kansalaisen terveyteen liittyvän tiedon ja työkalut Henkilökohtainen terveyden seuranta keskittyy yksittäisen ihmisen terveyteen ja hyvinvointiin liittyvien muuttujien seurantaan. Henkilökohtainen terveyden seuranta on nopeasti kasvava sovellusalue, joka kattaa laajan kentän erilaisia hyvinvointi-, terveys- ja viestintälaitteita sekä niiden päälle rakennettuja sovelluksia. Sovellusten ja laitteiden avulla voidaan kerätä monipuolista tietoa, jota voidaan hyödyntää henkilökohtaisen terveyden ja hyvinvoinnin seurannassa. Terveydenhuoltoalan standardit pohjautuvat pitkälti potilastietojärjestelmien tarpeisiin eivätkä näin ollen sovellu suoraan terveystaltion käyttöön ja hyvinvointitietojen esittämiseen. Mittalaitetiedon osalta Continua Health Alliancen standardit ovat laajasti käytössä ja niiden on todettu tarjoavan hyvät tekniset välineet mittalaitetiedon siirtämiseen terveystaltioon. Hyvinvointitietojen integroimiseksi osaksi terveystaltiota voidaan tunnistaa kaksi erilaista lähestymistapaa. XML-pohjaiset ratkaisut ovat joustavia ja helposti muunneltavia. Ontologiapohjaisen lähestymistavan pohjan muodostavat semanttisen webin teknologiat. Ontologiapohjaisen ratkaisun avulla voidaan saavuttaa tietojärjestelmien välinen semanttinen yhteensopivuus, jolloin järjestelmät ymmärtävät välittämänsä ja vastaanottamansa tiedon merkityksen. Uuden sukupolven standardit sekä nopeasti kehittyvä mittalaiteteknologia tuovat uusia mahdollisuuksia hyvinvointitietojen integroimiseksi osaksi terveystaltiota. Mittalaiteteknologian kehittyminen tuo kansalaisten saataville sellaista teknologiaa, joka on aikaisemmin ollut käytettävissä ainoastaan tutkimus- ja ammattikäytössä.
  • Rautiainen, Mikko (2016)
    The genomes of all animals, plants and fungi are organized into chromosomes, which contain a sequence of the four nucleotides A, T, C and G. Chromosomes are further arranged into homologous groups, where two or more chromosomes are almost exact copies of each others. Species whose homologous groups contain pairs of chromosomes, such as humans, are called diploid. Species with more than two chromosomes in a homologous group are called polyploid. DNA sequencing technologies do not read an entire chromosome from end to end. Instead, the results of DNA sequencing are small sequences called reads or fragments. Due to the difficulty of assembling the full genome from reads, a reference genome is not always available for a species. For this reason, reference-free algorithms which do not use a reference genome are useful for poorly understood genomes. A common variation between the chromosomes in a homologous group is the single nucleotide polymorhpism (SNP), where the sequences differ by exactly one nucleotide at a location. Genomes are sometimes represented as a consensus sequence and a list of SNPs, without information about which variants of a SNP belong in which chromosome. This discards useful information about the genome. Identification of variant compositions aims to correct this. A variant composition is an assignment of the variants in a SNP to the chromosomes. Identification of variant compositions is closely related to haplotype assembly, which aims to solve the sequences of an organism's chromosomes, and variant detection, which aims to solve the sequences of a population of bacterial strains and their frequencies in the population. This thesis extends an existing exact algorithm for haplotype assembly of diploid species (Patterson et al, 2014) to the reference-free, polyploid case. Since haplotype assembly is NP-hard, the algorithm's time complexity is exponential to the maximum coverage of the input. Coverage means the number of reads which cover a position in the genome. Lowering the coverage of the input is necessary. Since the algorithm does not use a reference genome, the reads must be ordered in some other way. Ordering reads is an NP-hard problem and the technique of matrix banding (Junttila, PhD thesis, 2011) is used to approxiately order the reads to lower coverage. Some heuristics are also presented for merging reads. Experiments with simulated data show that the algorithm's accuracy is promising. The source code of the implementation and scripts for running the experiments are available online at https://github.com/maickrau/haplotyper.
  • Eklund, Krister (2015)
    Ilmaisia tyypin I virtualisointijärjestelmiä on tarjolla useita. Tässä työssä vertaillaan Hyper-V Server-, Proxmox VE-, vSphere Hypervisor- ja XenServer-järjestelmiä keskenään laitteistovaatimusten, asennuksen, hallittavuuden, ominaisuuksien, resurssien seurannan, suorituskyvyn, varmuuskopioinnin ja päivittämisen suhteen. Järjestelmät asennettiin vuorotellen testikokoonpanolle, jolla arviointi tehtiin. Eroja löytyi kaikilta osa-alueilta. Tulokset koottiin taulukkoon, josta keskinäinen vertailu on yksinkertaista.
  • Deng, Huining (2015)
    This thesis is about learning the globally optimal Bayesian network structure from fully observed dataset, by using score-based method. This structure learning problem is NP- hard, and has attracted the attention of many researchers. We first introduce the necessary background of the problem, then review various score-based methods and algorithms proposed in solving the problem. Parallelization has come under the spotlight during recent years, as it can utilize shared memory and computing power of multi-core supercomputers or computer clusters. We implemented a parallel algorithm Para-OS, which is based on dynamic programming. Experiments were performed in order to evaluate the algorithm. We also propose an improved version of Para-OS, which separates the scoring phase totally from the learning phase, performs score pruning by using Sparse Parent Graph, in addition largely reduces the communication between processors. Empirical results shows the new version saves memory comparing to Para-OS, and provides good runtime with multi-treading.
  • Du, Mian (2012)
    Pattern-based Understanding and Learning System (PULS) can be considered as one key component of a large distributed news surveillance system. It is formed by the following three parts, 1. an Information Extraction (IE) system running on the back-end, which receives news articles as plain text in RSS feeds arriving continuously in real-time from several partner systems, processes and extracts information from these feeds and stores the information into the database; 2. a Web-based decision support (DS) system running on the front-end, which visualizes the information for decision-making and user evaluation; 3. both of them share the central database, which stores the structured information extracted by IE system and visualized by decision support system. In the IE system, there is an increasing need to extend the capability of extracting information from only English articles in medical and business domain to be able to handle articles in other languages like French, Russian and in other domains. In the decision support system, several new ways of Information Visualization and user evaluation interfaces are required by users for getting better decision support. In order to achieve these new features, a number of approaches including Information Extraction, machine learning, Information Visualization, evolutionary delivery model, requirements elicitation, modelling, database design approach and a variety of evaluation approaches have been investigated and adopted. Besides, various programming languages such as Lisp, Java, Python, JavaScript/Jquery, etc. have been used. More importantly, appropriate development process has been followed. This thesis reports on the whole process followed to achieve the required improvements made to PULS.
  • Nordman, Kristian (2017)
    Profit Software's Profit Life and Pension (PLP) is an investment insurance management system. This means that PLP handles investment insurances from the moment they are sold to when they eventually expire. For a system that handles money, it is important that it can be trusted. Therefore, testing is a required part of PLP's development. This thesis is an investigation into PLP's testing strategy. In this thesis we analyse PLP's current testing strategy to find flaws and impediments. We then offer improvement suggestions to the identified problem areas as well as suggest additions which we found could be beneficial.
  • Konyushkova, Ksenia (2013)
    Imagine a journalist looking for an illustration to his article about patriotism in a database of unannotated images. The idea of a suitable image is very vague and the best way to navigate through the database is to provide feedback to the images proposed by an Image Retrieval system in order to enable the system to learn what the ideal target image of the user is. Thus, at each search iteration a set of n images is displayed and the user must indicate how relevant they are to his/her target. When considering real-life problems we must also take into account the system's time-complexity and scalability to work with Big Data. To tackle this issue we utilize hierarchical Gaussian Process Bandits with visual Self-Organizing Map as a preprocessing technique. A prototype system called ImSe was developed and tested in experiments with real users in different types of tasks. The experiments show favorable results and indicate the benefits of proposed algorithms in different types of tasks.
  • Löflund, Jan-Erik (2013)
    XML-tietomallin käyttö on yleistynyt mm. rakenteisissa dokumenteissa, verkkosovellusten toteuttamisessa ja Internetissä tapahtuvassa tiedonsiirrossa. Tämän myötä tarve XML-muotoisen tiedon pysyvään säilyttämiseen on kasvanut. Tähän tarkoitukseen on kehitetty XML-tietomallia tiedonsäilytys- ja käsittelymuotonaan käyttäviä XML-pohjaisia tietokantoja. XML-muotoiset dokumentit ovat usein rakenteeltaan monimuotoisia ja kooltaan suuria. Tämän vuoksi XML-tietokannanhallintajärjestelmä on suunniteltava ja toteutettava tehokkaaksi, jotta sen avulla voidaan kohtuullisin laitteistoresurssein ja lyhyin vasteajoin suorittaa suuriakin määriä tietokantakyselyitä ja -päivityksiä, jotka voivat myös olla monipuolisia ja rinnakkaisia ja kohdistua suureen määrään tietoa kerrallaan. Tässä työssä esitetään, miten XML-tietokannanhallintajärjestelmän suorituskykyä voidaan merkittävästi parantaa dokumenttien indeksoinnilla. Indeksoinnissa XML-dokumenttien elementeille luodaan yksikäsitteiset tunnisteet, joihin perustuen luodaan erilaisia indeksihakemistoja. Indeksoinnin avulla tieto voidaan tehokkaasti paikantaa tietokannan tietosivuilta ja siirtää tietokannanhallintajärjestelmän tietosivujen ja puskurin välillä, mikä nopeuttaa tietokannanhallintajärjestelmän toimintaa ja lisää sen kykyä käsitellä rinnakkaisia luku- ja kirjoituspyyntöjä. Indeksoinnin avulla voidaan myös tehostaa tietokannanhallintajärjestelmän kyselynkäsittelyalgoritmien toimintaa mahdollistamalla niiden käyttämien joukkoliitosoperaatioiden tehokas toteutus. BaseX- ja eXist ovat XML-pohjaisia tietokannanhallintajärjestelmiä, joissa käytettävissä on useita erilaisia indeksejä. Indeksien toteutus näissä järjestelmissä kuvataan, ja näiden järjestelmien tehokkuutta XML-dokumentteihin tehtävien tietokantakyselyiden suorituksessa mitataan ja arvioidaan tätä varten kehitetyn XMark-koetinkuorman avulla.
  • Wahlroos, Mika (2013)
    Tiedonhallinnassa käytetään usein metatietona tiedon sisältöä kuvaavia avainsanoja parantamaan tiedon hallittavuutta tai löydettävyyttä. Sisällön kuvailua luonnollisen kielen termein tai käsittein kutsutaan indeksoinniksi. Yhdenmukaisuuden vuoksi voidaan käyttää tarkoitusta varten laadittua asiasanastoa, joka kattaa toimialan kannalta keskeisen termistön. Semanttisessa webissä ja yhdistetyssä tiedossa käytettävät ontologiat vievät ajatuksen pitemmälle määrittelemällä termit käsitteinä ja niiden välisinä merkityssuhteina. Metatiedon tuottamisen helpottamiseksi ja tehostamiseksi on kehitetty erilaisia menetelmiä, joilla sisältöä kuvailevia termejä voidaan tuottaa tekstiaineistosta automaattisesti. Tässä tutkielmassa keskitytään avaintermien automaattiseen eristämiseen tekstistä sekä metatiedon laatuun ja sen arvioinnin menetelmiin. Esimerkkitapauksena käsitellään ontologiaa hyödyntävän Maui-indeksointityökalun käyttöä asiakirjallisen tiedon automaattiseen asiasanoittamiseen. Automaattisesti eristetyn metatiedon laatua verrataan alkuperäiseen ihmisten määrittämään asiasanoitukseen käyttäen tarkkuus- ja saantimittauksia. Lisäksi evaluointia täydennetään aihealueen asiantuntijoiden esittämillä subjektiivisilla laatuarvioilla. Tulosten perusteella selvitetään tekstin esikäsittelyn ja sanaston hierarkian merkitystä automaattisen asiasanoituksen laadun kannalta sekä pohditaan keinoja annotointimenetelmän jatkokehittämiseksi.
  • Reiman, Tomi (2016)
    Cyberthreat intelligence is currently a hot topic in the information security community. Today's business models are forcing organizations to move into the cyberspace, and because of this they phase new threats. Organizations need to address these new threats in order to protect their systems from adversaries. One method for doing so is to develop a threat intelligence program, in which the organization actively gathers intelligence about current and emerging cyberthreats. Indicators of compromise can be used in organization's security infrastructure to look for and to prevent threats in near real-time. Indicators can be obtained from public intelligence feeds, and they can be shared in threat information sharing communities formed by organizations facing similar threats. Regardless of the source of threat intelligence, the intelligence should be evaluated by skilled security analysts to verify that the indicators of compromise suit the target environment. By sharing threat information organizations can benefit from security incidents seen by other organizations, and the participants can leverage the actionable intelligence to adjust their defenses before similar threats realize within their own network. Organizations can utilize purpose-built software to manage their threat intelligence. This supports the organization in developing its threat intelligence program. Threat information management platforms aid organizations in managing the quality and richness of threat intelligence and these platforms often come with information sharing capabilities built into the software, enabling organizations to share threat intelligence with each other. Organizations are able to distribute actionable intelligence into their security infrastructure more easily if they use a threat information management platform as the centralized point for managing the organization's threat intelligence. An example of an integration point is the organization's security information and event management (SIEM) system, which is often utilized by a security operations center (SOC) to perform analytics on the organization's log data. When the logs collected by a SIEM system are enriched with actionable intelligence security analysts are likely to see more informed alerts and less false positives. This thesis defines an integration between a threat information management platform and a SIEM.We measure and evaluate how much the integration reduces SOC's burden of manually importing threat intelligence into their monitoring infrastructure. Two questionnaires with SOC analysts were carried out for this purpose. We also evaluate how much integration fastens the deployment of actionable intelligence for detecting emerging threats. The evaluation is based on security incident ticket data obtained from a production SOC environment.
  • Ahmed, Imtiaj (2013)
    This thesis explores interaction paradigms for virtual 3D models on large displays. We explored three distant freehand interaction paradigms and for each paradigm we implemented a prototype system. Among these paradigms, it has been found that pointing by hand/eye with selection gesture is the ideal technique to interact with such interfaces. In the pointing technique we reduced the 3D interaction into 2D interaction to explore the 3D contents presented on the large displays. We propose a pinch gesture to select items effortlessly: a gesture of touching index finger with the thumb. Also we found a user-friendly way to present content meta-information of the virtual 3D models and its interactive units during interaction.
  • Puikkonen, Tuomas (2017)
    Tutkielma antaa yleiskuvan Internet-sensuurin teknisestä toteutuksesta, siitä miten tietyt maat sensuroivat kansalaisten verkkoliikennettä ja miten kansalaiset kiertävät tätä sensuuria. Tutkielman alussa taustoitamme, miten Internet toimii teknisesti. Esittelemme tutkielmassa viisi erilaista sensurointitekniikkaa. Nämä ovat pakettisuodatus, DNS-järjestelmään perustuva sensurointi, BGP-protokollan manipulointi, avainsanoihin perustuva suodatus sekä Internet-yhteyden häiriköinti ja kuristaminen. Osa sensurointitekniikoista ylisuodattaa eli sensuroitavaksi päätyy myös tietoa, jota ei ollut tarkoitus estää. Sensori voi yhdistellä eri sensurointitekniikoita isommaksi kokonaisuudeksi ja saada näin ollen paremman hyödyn sensurointijärjestelmästä. Sensorin ei ole pakko rakentaa sensurointijärjestelmää itse. Alalla toimii yrityksiä, jotka myyvät valtioille järjestelmiä sensuroinnin toteuttamiseen. Tutkimme kymmenen maata Freedom Housen ja Reporters Without Borders'n raporttien pohjalta. Näistä maista tutustumme tarkemmin Kiinan ja Iranin Internet-sensuuriin. Lisäksi esittelemme arabikevään tapahtumat Egyptin ja Libyan osalta. Valotamme tutkimiemme maiden nykytilaa Freedom Housen vuoden 2015 Internetin vapaus -raportin avulla. Internet-sensuurin yleistyessä myös sensuroinnin kiertäminen on yleistynyt. Pohjustamme sensuurin kiertämistä esittelemällä viestintäprotokollien päivitettyjä versioita, erilaisia välityspalvelimia ja tunnelointitekniikoita. Tämän jälkeen esittelemme tarkemmin kolme näiden tekniikoiden päälle rakennettua kierto-ohjelmaa. Esiteltävät ohjelmat ovat Psiphon, Tor ja CovertCast. Kerromme mitä kierto-ohjelmia tutkittujen maiden kansalaiset ovat ottaneet käyttöönsä ja miten sensori suhtautuu kierto-ohjelmien käyttöön. Sensori ja kierto-ohjelman kehittäjä kilpailevat nykyään siitä, kumman tekniikka on toista tehokkaampi. Tämän vuoksi emme näe järkeä ratkaista Internet-sensuurin aiheuttamaa sananvapausongelmaa teknisin keinoin. Ongelman ratkaisemiseen tarvitaan pitkäjänteistä poliittista vaikuttamista kansainvälisellä tasolla.
  • Repo, Petrus (2012)
    Tutkielmassa selvitetään, kuinka web-palvelun sisäänkirjautumisessa voidaan hyödyntää ulkoista identiteetintarjoajaa. Esimerkkinä käytetään Tietojenkäsittelytieteen laitoksen kaikille avointa MOOC-kurssia, jonka web-palvelun nykyisessä toteutuksessa ovat käytössä ainoastaan palvelun omat käyttäjätunnukset. Tutkielmassa esitellään yhteentoimivuuden standardeja, jotka mahdollistavat käyttäjän autentikoimisen hajautetussa verkkoympäristössä. Tutkielmassa kuvaillaan standardien määrittelemää arkkitehtuuria relevantein osin, mutta standardia hyödyntävien järjestelmien sisäinen toteutus rajataan tutkielman ulkopuolelle. Identiteetinhallinnan palveluntarjoajiksi valitaan tutkielmassa Facebook ja Google. Näiden kahden suuren palveluntarjoajan avulla voidaan tarjota sisäänkirjautuminen MOOC-palveluun merkittävälle joukolle potentiaalisia opiskelijoita, joilla ei ole Helsingin yliopiston käyttäjätunnusta. Toiseksi tutkielmassa selvitetään, kuinka huomioidaan opiskelijat, jotka eivät halua olla Facebookin tai Googlen asiakkaita. Kolmanneksi selvitetään, kuinka Helsingin yliopiston identiteettiä voi turvallisesti käyttää MOOC-järjestelmän kaltaisessa palvelussa, joka ei ole Helsingin yliopiston tietotekniikkaosaston ylläpitämiä. Facebookin ja Googlen teknologiavalinnoista johtuen tutkielman painopisteessä ovat OAuth- ja OpenID-standardit. OAuth-standardi määrittelee vain ja ainoastaan auktorisointikerroksen eikä ota lainkaan kantaa autentikointiin. Siitä huolimatta OAuth on Facebookin vuoksi yksi yleisimmistä keinoista ulkoistaa käyttäjäautentikointi internetissä. Tutkielmassa havaitaan, että yleistyneisyydestään huolimatta autentikoiminen yksin OAuthin avulla sisältää riskejä. Tutkielman lopuksi esitetään suositus MOOC-palvelun autentikointiratkaisun suurista linjoista, joihin lukeutuu myös tarve OpenID Connect -standardille OAuth-standardin lisäksi.
  • Gao, Yuan (2016)
    Controlling a complicated mechanical system to perform a certain task, for example, making robot to dance, is a traditional problem studied in the area of control theory. However, evidence shows that incorporating machine learning techniques in robotics can enable researchers to get rid of tedious engineering works of adjusting environmental parameters. Many researchers like Jan Peters, Sethu Vijayakumar, Stefan Schaal, Andrew Ng and Sebastian Thrun are the early explorers in this field. Based on the Partial Observable Markov Decision Process (POMDP) reinforcement learning, they contributed theory and practical implementation of several benchmarks in this field. Recently, one sub-field of machine learning called deep learning gained a lot of attention as a method attempting to model high-level abstractions by using model architectures composed of multiple non-linear layers (for example [Krizhevsky2012]). Several architectures of deep learning networks like deep belief network [Hinton2006], deep Boltzman machine [Salakhutdinov2009], convolutional neural network [Krizhevsky2012] and deep de-noising auto-encoder [Vincent2010] have shown their advantages in specific areas. The main contribution of deep learning is more related to perception which deals with problems like Sensor Fusion [OConnor2013], Nature Language Processing(NLP)[Cho2014] and Object Recognition [Lenz2013][Hoffman2014]. Although considered briefly in Jürgen Schmidhuber's team[Mayer2006], the other area of robotics, namely control, remains more-or-less unexplored in the realm of deep learning. The main focus of this thesis is to introduce general learning methods for robot control problem with an exploration on deep learning method. As a consequence, this thesis tries to describe the transitional learning methods as well as the emerging deep learning methods including new findings in the investigation.
  • Aluthge, Nishadh (2018)
    Exponential growth of Internet of Things complicates the network management in terms of security and device troubleshooting due to the heterogeneity of IoT devices. In the absence of a proper device identification mechanism, network administrators are unable to limit unauthorized accesses, locate vulnerable/rogue devices or assess the security policies applicable to these devices. Hence identifying the devices connected to the network is essential as it provides important insights about the devices that enable proper application of security measures and improve the efficiency of device troubleshooting. Despite the fact that active device fingerprinting reveals in depth information about devices, passive device fingerprinting has gained focus as a consequence of the lack of cooperation of devices in active fingerprinting. We propose a passive, feature based device identification technique that extracts features from a sequence of packets during the initial startup of a device and then uses machine learning for classification. Proposed system improves the average device prediction F1-score up to 0.912 which is a 14% increase compared with the state-of-the-art technique. In addition, We have analyzed the impact of confidence threshold on device prediction accuracy when a previously unknown device is detected by the classifier. As future work we suggest a feature-based approach to detect anomalies in devices by comparing long-term device behaviors.