Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by department "Tietojenkäsittelytieteen laitos"

Sort by: Order: Results:

  • Nikunlassi, Arvi (2013)
    Internetin ja tietotekniikan yleistymisen vuoksi ohjelmistokehitys painottuu yhä enemmän yhteistyöhön ja interaktioon. Suunnitelmakeskeisyydestä ollaan siirrytty kohti ketterämpiä menetelmiä, joissa muutoksen ja kommunikaation tärkeys on tiedostettu. Asiakas ja asiakassuhde on erittäin merkittävä komponentti ohjelmistoprojektin onnistumisessa. Nykyaikaisissa ketterissä ohjelmistokehitystiimeissä asiakkaan edustaja on tiiviisti yhteydessä kehittäjiin palaverien tai muun läsnäolon kautta. Asiakkaan tiivis yhteys kehitykseen on keino tehostaa kehitystä ja saada tyydyttävämpiä tuotteita. Vähemmälle huomiolle on kuitenkin jäänyt toteutetun asiakassuhteen vaikutus kaikille projektin osapuolille. Tässä tutkielmassa tarkastellaan ohjelmistokehitystä asiakkaan ja asiakassuhteen näkökulmasta. Aluksi analysoidaan ohjelmistokehityksen peruspiirteitä ja esitellään yleisimpiä ketteriä menetelmiä. Tämän jälkeen esitellään erilaisia tutkimuksia asiakassuhteesta ja analysoidaan niiden tuloksia. Lopuksi luodaan yhteenveto havaituista ongelmista ja esitetään niihin ratkaisuehdotuksia.
  • Lehtinen, Sampo (2014)
    Tämän tutkielman tavoitteena oli tarkastella ohjelmiston laatua ja ohjelmistoihin tehdyn investoinnin arvon säilymistä pitkällä aikavälillä asiakkaan näkökulmasta sekä tuoda esiin keinoja välttää toimittajaloukun muodostuminen. Tutkielman teoreettisen viitekehyksen muodostavat ohjelmiston laatua sekä testausta ja laadunvarmistusta käsittelevät toinen ja kolmas luku. Ne perustuvat kirjallisiin lähteisiin. Toimittajaloukun välttämiseksi toimittajan ja asiakkaan intressien välillä vallitseva ristiriita pitää poistaa. Konkreettiset keinot ohjata ohjelmistotoimittaja ajattelemaan asiakkaan pitkäaikaista etua perustuvat vaihtokustannuksien madaltamiseen. Tavoitteeni on ollut kirjoittaa siten, että sen lukeminen ja ymmärtäminen on helppoa ohjelmistoja hankkiville tahoille, joilla ei välttämättä ole alan koulutusta. Olen pyrkinyt keksimään ja löytämään alan termeille helposti ymmärrettäviä ja kuvaavia suomennoksia.
  • Huttunen, Jyri-Petteri (2013)
    Opinnäytetyön tavoitteena oli tutkia modularisoidun, reaaliaikaisesti koulutettavan neuroverkkojärjestelmän toimintaa samankaltaisen, ei-modulaariseen neuroverkkojärjestelmään verrattuna. Tutkimuksen alustaksi luotiin yksinkertainen pelimaailma ja erilaisia koulutusskenaarioita, sekä toteutettiin Texasin yliopistossa kehitetyn rtNEAT-menetelmän päälle rakentuva modulaarinen kontrolliverkkojärjestelmä. Konstruoidun järjestelmän toimintaa verrattiin perus-rtNEAT -järjestelmän toimintaan, erityisesti kiinnitettiin huomiota aiemmin opitun käyttäytymisen muistamiseen. Tutkimuksen tulos osoitti, että opinnäytetyötä varten konstruoitujen järjestelmien välillä ei ollut merkittävää eroa toimintakyvyssä. Tämä johtuu todennäköisesti testiympäristönä käytetyn pelimaailman yksinkertaisuudesta. Mikäli järjestelmissä on merkittäviä eroja esimerkiksi muistiinpalauttamisen suhteen, näiden esille saamiseksi vaadittaisiin lisätutkimusta.
  • Savolainen, Sakari (2013)
    Organisaatioiden ja yhteisöjen henkilöillä on tietoteknistä asiantuntijuutta. Se voidaan nähdä resurssina, jota vertaiset organisaatioissa tarvitsevat. Asiantuntijuuden kohdistus sitä tarvitseville toteutetaan kohdistusmekanismin avulla, joka tuntee resurssit ja tarjoaa käyttäjälle tavan pyytää tarvitsemaansa apua. Oppilaitoksissa ja muissa organisaatioissa käytetään vertaistukijärjestelmiä, joilla vertaisten asiantuntijuutta kohdistetaan avun hakijoille. Resurssit täytyisi saada kohdistettua nopeasti ja tehokkaasti tarvitsijalle. Resurssien kohdistusmekanismeja on runsaasti tietotekniikkaa hyödyntävissä ympäristöissä ja organisaatioissa. Kohdistusmekanismien ominaisuudet ja periaatteet vaihtelevat, mutta kohdistuksessa voidaan tunnistaa viisi vaihetta.Kohdistusmekanismien kohdistuksen vaiheet ovat avun tarpeen määrittely, resurssien tunnistus, resurssien valinta, resurssien kohdistus ja resurssien käyttö. Vertaistuen kohdistuksessa asiantuntijuus on tässä työssä keskeisin kohdistettava resurssi, mutta myös muita resursseja voidaan kohdistaa, esimerkiksi oppimateriaaleja.Yliopistomaailmassa käytössä oleva I-Help-järjestelmä (Intelligent Helpdesk) on laaja ja monimutkainen järjestelmä, joka kohdistaa vertaisapua opiskelijoiden välillä. I-Help on valittu esimerkkisovellukseksi hyvin kehittyneiden kohdistusominaisuuksiensa vuoksi. I-Help ja kohdistusmekanismien ominaisuudet yleensä ovat taustana arvioitaessa itse suunnitellun Apu-sovelluksen kohdistusominaisuuksia.Laajoilla järjestelmillä on etuna monipuolisuus ja kohdistuksen tarkkuus, mutta pienillä järjestelmillä taas edullisuus ja helppo opittavuus. Laajojen järjestelmien heikkouksia ovat kalleus, raskas ylläpidettävyys ja monimutkaisuus, joka vaikeuttaa muun muassa opittavuutta. Pienen järjestelmän heikkous voi olla epätarkka asiantuntijuuden kohdistus.Itse kehitettyä Apu-sovelluksen kohdistusmekanismia ja sen ominaisuuksia arvioidaan. Kriittisen massan saavutettuaan mekanismi löytää auttajia hyvin, jos auttajien kompetenssit jakautuvat tasaisesti. Myös pienellä järjestelmällä voidaan saavuttaa hyviä asiantuntijuuden kohdistustuloksia.
  • Tapanainen, Timo (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2007)
    Läpileikkaava näkökulma on tietokoneohjelman toteutukseen liittyvä vaatimus, jota ei voida toteuttaa käytetyllä ohjelmointikielellä omaan ohjelmayksikköön, vaan sen toteutus hajaantuu useisiin ohjelmayksiköihin. Aspektiohjelmointi on uusi ohjelmointiparadigma, jolla läpileikkaava näkökulma voidaan toteuttaa omaan ohjelmayksikköön, aspektiin. Aspekti kapseloi näkökulman toteutuksen neuvon ja liitoskohtamäärityksen avulla. Neuvo sisältää näkökulman toteuttavan ohjelmakoodin ja liitoskohtamääritys valitsee ne ohjelman liitoskohdat, joihin ohjelmakoodi liitetään. Nykyisillä aspektikielillä voidaan valita liitoskohtia pääasiassa niiden syntaktisten ominaisuuksien, kuten nimen ja sijainnin, perusteella. Syntaksiin sidoksissa olevat liitoskohtamääritykset ovat hauraita, sillä ohjelmaan tehdyt muutokset voivat rikkoa syntaksista riippuvia liitoskohtamäärityksiä, vaikka itse liitoskohtamäärityksiin ei tehtäisi muutoksia. Tätä ongelmaa kutsutaan hauraan liitoskohtamäärityksen ongelmaksi. Ongelma on merkittävä, koska hauraat liitoskohtamääritykset vaikeuttavat ohjelman kehitettävyyttä ja ylläpidettävyyttä. Tässä tutkielmassa perehdytään hauraan liitoskohtamäärityksen ongelmaan ja siihen esitettyihin ratkaisuihin. Tutkielmassa näytetään, että ongelmaan ei ole tällä hetkellä kunnollista ratkaisua.
  • Chandrasekaran, Sinduja (2016)
    NGS technologies and the advancement of bioinformatics methodologies have led to the start and success of many projects in genomics. One such project is the Caenorhabditis genome project, aimed at generating draft genomes for all the known and non-sequenced Caenorhabditis species. Except for C. elegans, the model organism responsible for discoveries such as the molecular mechanism of cell death and RNA interference, not much is known about other species in this genus. This hinders our understanding of the evolution of C. elegans and its distinct characteristics. This project is therefore an initiative to understand the Caenorhabditis genus. The aim of my project was to sequence and annotate the genome of Caenorhabditis doughertyi, as a part of the Caenorhabditis Genome Project. C. doughertyi is the sister species of C. brenneri, which is known for its high level of polymorphism among eukaryotes. It was initially found in the regions of Kerala, India by MA Felix in 2007 and consists of both male and female adults. The sequencing of C. doughertyi would pave the way for understanding the evolution of high diversity levels observed in C. brenneri. The raw data of the genome consisted of two paired-end libraries with insert size of 300- and 500 bp, with read lengths of 125 bp. The quality of reads was ensured by quality control measures such as trimming of adaptor sequences, error correction and removal of DNA from non-target organisms. The reads were then assembled using multiple assemblers and ABySS was decided as the best assembly based on metrics such as N50 and biological parameters like CEGMA. The draft genome was then annotated using MAKER pipeline and the orthologs were identified using OrthoMCL. The obtained draft genome can aid in preliminary comparative genomic analyses with other species in the genus. Further work may focus on improving the quality of this draft assembly towards a publication quality genome sequence for this species. ACM Computing Classification System (CCS): Life and medical sciences -> Computational biology Life and medical sciences -> Bioinformatics
  • Pagels, Max (2013)
    Productivity is an important aspect of any software development project as it has direct implications on both the cost of software and the time taken to produce it. Though software development as a field has evolved significantly during the last few decades in terms of development processes, best practices and the emphasis thereon, the way in which the productivity of software developers is measured has remained comparatively stagnant. Some established metrics focus on a sole activity, such as programming, which paints an incomplete picture of productivity given the multitude of different activities that a software project consists of. Others are more process-oriented — purporting to measure all types of development activities — but require the use of estimation, a technique that is both time-consuming and prone to inaccuracy. A metric that is comprehensive, accurate and suitable in today's development landscape is needed. In this thesis, we examine productivity measurement in software engineering from both theoretical and pragmatic perspectives in order to determine if a proposed metric, implicitly estimated velocity, could be a viable alternative for productivity measurement in Agile and Lean software teams. First, the theory behind measurement — terminology, data types and levels of measurement — is presented. The definition of the term productivity is then examined from a software engineering perspective. Based on this definition and the IEEE standard for validating software quality metrics, a set of criteria for validating productivity metrics is proposed. The motivations for measuring productivity and the factors that may impact it are then discussed and the benefits and drawbacks of established metrics — chief amongst which is productivity based on lines of code written — explored. To assess the accuracy and overall viability of implicitly estimated velocity, a case study comparing the metric to LoC-based productivity measurement was carried out at the University of Helsinki's Software Factory. Two development projects were studied, both adopting Agile and Lean methodologies. Following a linear-analytical approach, quantitative data from both project artefacts and developer surveys indicated that implicitly estimated velocity is a metric more valid than LoC-based measurement in situations where the overall productivity of an individual or team is of more importance than programming productivity. In addition, implicitly estimated velocity was found to be more consistent and predictable than LoC-based measurement in most configurations, lending credence to the theory that implicitly estimated velocity can indeed replace LoC-based measurement in Agile and Lean software development environments.
  • Hamberg, Jiri (2018)
    Sophisticated mobile devices have rapidly become essential tools for various daily activities of billions of people worldwide. Subsequently, the demand for longer battery lives is constantly increasing. The Carat project is advancing the understanding of mobile energy consumption by using collaborative mobile data to estimate and model energy consumption of mobile devices. This thesis presents a method for estimating mobile application energy consumption from mobile device system settings and context factors using association rules. These settings and factors include CPU usage, device travel distance, battery temperature, battery voltage, screen brightness, used mobile networking technology, network type, WiFi signal strength, and WiFi connection speed. The association rules are mined using Apache Spark cluster-computing framework from collaborative mobile data collected by the Carat project. Additionally, this thesis presents a prototype of a web based API for discovering these association rules. The web service integrates Apache Spark based analysis engine with a user friendly front-end allowing an aggregated view of the dataset to be accessible without revealing data of individual participants of the Carat project. This thesis shows that association rules can be used effectively in modelling mobile device energy consumption. Example rules are presented and the performance of the implementation is evaluated experimentally.
  • Pyykkö, Joel (2014)
    In this thesis, we describe Forward Sparse Sampling Search, an algorithm that was published in 2010 by Walsh et al., which combines model-based reinforcement learning with sample-based planning. We show how it can be applied to solving an appropriate set of problems, as well as extend the original tests to give a better view on how the parameters of the algorithm work, and to further the understanding of the method. First, we introduce the concept of reinforcement learning, and identify key environments and points of interest where FSSS is applicable. Next, we explain the terminology and relevant theories the method is based on. The aim is to introduce the reader to a powerful tool for control-problems, and show where to apply it and how to parameterize it. After reading this thesis, one is hopefully fitted with dealing with the basic setup and usage of FSSS. In the final sections of the thesis, we report a series of tests which demonstrate how FSSS works in one particular environment - the Paint/Polish world. The tests focus on understanding the effects of various parameters that the method uses, yielding further understanding on how to effectively apply it, analyzing its performance and comparing it to more basic algorithms on the field. The principal theories and proofs will be explained, and possible paths to improve the algorithm will be explored.
  • Feng, Shiqing (2015)
    A cognitive radio (CR) is an intelligent radio that reuses frequency band based on dynamic spectrum access (DSA). CR implements spectrum sensing to detect primary users' (PU) presence, and exploits available spectrum without interfering PU. In contrast with local spectrum sensing, cooperative sensing which is implemented by multiple CRs, is more efficient and effective generally. Previous work on cooperative spectrum sensing in cognitive radio (CR) assumes a default mode that CRs are willing to cooperate for others unconditionally. While this situation does not always hold, the requested CR might reject the cooperation request due to its insufficient energy, or security concerns. In this thesis, we propose a social-based cooperative sensing scheme (SBC) that exploits social ties of CRs on their cooperative sensing. Simulation results show that SBC fulfills improved sensing quality, and the sensing performance of CRs correlate to the social degree and social network topology.
  • Liao, Ke (2020)
    With the development of web services like E-commerce, job hunting websites, movie websites, recommendation system plays a more and more importance role in helping users finding their potential interests among the overloading information. There are a great number of researches available in this field, which leads to various recommendation approaches to choose from when researchers try to implement their recommendation systems. This paper gives a systematic literature review of recommendation systems where the sources are extracted from Scopus. The research problem to address, similarity metrics used, proposed method and evaluation metrics used are the focus of summary of these papers. In spite of the methodology used in traditional recommendation systems, how additional performance enhancement methods like machine learning methods, matrix factorization techniques and big data tools are applied in several papers are also introduced. Through reading this paper, researchers are able to understand what are the existing types of recommendation systems, what is the general process of recommendation systems, how the performance enhancement methods can be used to improve the system's performance. Therefore, they can choose a recommendation system which interests them for either implementation or research purpose.
  • Sverdlov, Sophie (2018)
    There are many software packages for modeling transcription factors’ binding affinities, both for prediction and classification, and for visualization. In this thesis I survey several methods and evaluate their fitness for discriminating between positive and negative sequences in the data set: • BaMM method • PMMs method • Slim method • Log-odds Sequence Logos method • CircularLogo method • InMoDe method • TFFMs method • DWM method I first compared the packages based on a review of the papers in which they are presented. Based on that comparison, I selected the three that seemed the most promising for the application, and evaluated their fitness and ease of use.
  • Smirnova, Inna (2014)
    There is an increasing need for organizations to collaborate with internal and external partners on a global scale for creating software-based products and services. Many aspects and risks need to be addressed when setting up such global collaborations. Different types of collaborations such as engineering collaborations or innovation-focused collaborations need to be considered. Further aspects such as cultural and social aspects, coordination, infrastructure, organizational change process, and communication issues need to be examined. Although there are already experiences available with respect to setting up global collaborations, they are mainly focusing on certain specific areas. An overall holistic approach that guides companies in systematically setting up global collaborations for software-based products is widely missing. The goal of this thesis is to analyze existing literature and related information and to extract topics that need be taken into account while establishing global software development collaborations - to identify solutions, risks, success factors, strategies, good experiences as well as good examples. This information is structured in a way so that it can be used by companies as a well-grounded holistic approach to guide companies effectively in setting up long-term global collaborations in the domain 'software development'. The presented approach is based on scientific findings reported in literature, driven by industry needs, and confirmed by industry experts. The content of the thesis consists of two main parts: In the first part a literature study analyzes existing experience reports, case studies and other available literature in order to identify what aspects and practices need to be considered by organizations when setting up global collaborations in the domain software development. Secondly, based on the results from the literature review and consultation with the industrial partner Daimler AG, the identified aspects and practices are structured and prioritized in the form of activity roadmaps, which present a holistic guide for setting up global collaborations. The developed guidance worksheet, the so-called 'Global canvas', is meant to be a guide and reminder of all major activities that are necessary to perform when doing global collaborations for software-based products and services. The main contributions of this thesis are an analysis of the state of the practice in setting-up of global software development collaborations, identification of aspects and successful practices that need to be addressed by organizations when doing global collaborations for software-based products and services and the creation of a holistic approach that presents scientific findings to industry in an effective and credible way and guides companies in systematically setting up global collaborations.
  • Haverinen, Laura (Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2012)
    Nonverbal communication is a very important part of face to face communication. Both explicit and implicit additions to verbal communication augment the information content of communication. Before telephones did not provide any means for adding nonverbal information to the communication, but now, as the technology has advanced, it is possible to start augmenting also the communication on the phone. Adding a haptic I/O device to a regular mobile phone opens possibilities to add value to communication. We conducted two user studies, one for exploring vibration as additional modality to the communication and one on how the contextual issues affect the pressure and behavior. These studies help to understand how the communication could be augmented and whether there is tacit information about the phone usage that could be delivered as part of the communication. Both studies were field studies. Using vibration as additional modality was studied in a longitude study with couples, while contextual impact was studied as a comparison of the laboratory and field discussions. We find that it is possible to add haptic devices to a mobile phone and create a bidirectional communication channel based on the pressure applied on the phone. When the pressure is mapped to a vibration, it offers a new way of messaging. In addition, we find that there are changes in phone usage even in static laboratory conditions, thus it is possible to collect information about pressure, posture and movement of a person and share it with the discussion partner. ACM Computing Classification System (CCS): H.5.2[User Interfaces]: Haptic I/O, I.3.6[Methodology and Techniques]: Interaction techniques,
  • Thakur, Mukesh (2017)
    Over past decade cloud services have enabled individuals and organizations to perform different types of tasks such as online storage, email services, on-demand movies and TV shows. The cloud services has also enabled on-demand deployment of applications, at cheap cost with elastic and scalable, fault tolerant system. These cloud services are offered by cloud providers who use authentication, authorization and accounting framework based on client-server model. Though this model has been used over decades, study shows it is vulnerable to different hacks and it is also inconvenient to use for the end users. In addition, the cloud provider has total control over user data which they are able to monitor, trace, leak and even modify at their will. Thus, the user data ownership, digital identity and use of cloud services has raised privacy and security concern for the users. In this thesis, Blockchain and its applications are studied and alternative model for authentication, authorization and accounting is proposed based on Ethereum Blockchain. Furthermore, a prototype is developed which enables users to consume cloud services by authenticating, authorizing and accounting with a single identity without sharing any private user data. Experiments are run with the prototype to verify that it works as expected. Measurements are done to assess the feasibility and scalability of the solution. In the final part of the thesis, pros and cons of the proposed solution are discussed and perspectives for further research are sketched.
  • Stenudd, Juho (2013)
    This Master's Thesis describes one example on how to automatically generate tests for real-time protocol software. Automatic test generation is performed using model-based testing (MBT). In model-based testing, test cases are generated from the behaviour model of the system under test (SUT). This model expresses the requirements of the SUT. Many parameters can be varied and test sequences randomised. In this context, real-time protocol software means a system component of Nokia Siemens Networks (NSN) Long Term Evolution (LTE) base station. This component, named MAC DATA, is the system under test (SUT) in this study. 3GPP has standardised the protocol stack for the LTE eNodeB base station. MAC DATA implements most of the functionality of the Medium Access Control (MAC) and Radio Link Control (RLC) protocols, which are two protocols of the LTE eNodeB. Because complex telecommunication software is discussed here, it is challenging to implement MBT for the MAC DATA system component testing. First, the expected behaviour of a system component has to be modelled. Because it is not smart to model everything, the most relevant system component parts that need to be tested have to be discovered. Also, the most important parameters have to be defined from the huge parameter space. These parameters have to be varied and randomised. With MBT, a vast number of different kind of users can be created, which is not reasonable in manual test design. Generating a very long test case takes only a short computing time. In addition to functional testing, MBT is used in performance and worst-case testing by executing a long test case based on traffic models. MBT has been noticed to be suitable for challenging performance and worst-case testing. This study uses three traffic models: smartphone-dominant, laptop-dominant and mixed. MBT is integrated into continuous integration (CI) system, which automatically runs MBT test case generations and executions overnight. The main advantage of the MBT implementation is the possibility to create different kinds of users and simulate real-life system behaviour. This way, hidden defects can be found from test environment and SUT.
  • Gafurova, Lina (2018)
    Automatic fall detection is a very important challenge in the public health care domain. The problem primarily concerns the growing population of the elderly, who are at considerably higher risk of falling down. Moreover, the fall downs for the elderly may result in serious injuries or even death. In this work we propose a solution for fall detection based on machine learning, which can be integrated into a monitoring system as a detector of fall downs in image sequences. Our approach is solely camera-based and is intended for indoor environments. For successful detection of fall downs, we utilize the combination of the human shape variation determined with the help of the approximated ellipse and the motion history. The feature vectors that we build are computed for sliding time windows of the input images and are fed to a Support Vector Machine for accurate classification. The decision for the whole set of images is based on additional rules, which help us restrict the sensitivity of the method. To fairly evaluate our fall detector, we conducted extensive experiments on a wide range of normal activities, which we used to oppose the fall downs. Reliable recognition rates suggest the effectiveness of our algorithm and motivate us for improvement.
  • Kesulahti, Aki (2019)
    Tutkielmassa käydään läpi autonomisten ajoneuvojen mahdollisia tietoturvauhkia sekä uhkien riskitasoja. Eri hyökkäystavoista ja -tyypeistä selvitetään mitä heikkouksia ne hyödyntävät, ja miten näiltä hyökkäyksiltä voi koittaa suojautua. Potentiaaliset tietoturvauhat jakautuvat uhkiin ajoneuvon toimintaan sekä ajoneuvossa olevan henkilön yksityisyyden suojan uhkiin. Ajoneuvon toiminnan uhat jakautuvat vielä hyökkäyksiin suoraan itse ajoneuvon järjestelmiin, hyökkäyksiin ajoneuvoon välillisesti verkottuneiden ajoneuvojen ja telematiikan kautta, sekä hyökkäyksiin viihdejärjestelmien ja kannettavien laitteiden kautta. Ajoneuvon järjestelmistä tietoturvauhkia on muun muassa navigointijärjestelmässä kuten kartta-aineistossa ja satelliittipaikannuksessa, ajoneuvon lähisensoreissa kuten kameroissa, lidarissa, tutkassa ja akustisissa sensoreissa, sekä ajoneuvon sisäisissä laitteissa ja antureissa kuten esimerkiksi langattomissa rengaspainesensoreissa. Verkottuneiden ajoneuvojen kautta tietoturvauhkia on erilaiset väärennetyt viestit turvallisuusjärjestelmään tai ruuhkanhallintaan, palveluestohyökkäys, karttatietojen myrkytys tai salanimen vaihtamisen häirintä. Myös infrastruktuurin kautta voidaan hyökätä palvelunestohyökkäyksenä, väärennetyin turvallisuusviestein tai karttatiedolla. Ajoneuvon CAN-väylään voidaan hyökätä sekä ajoneuvon omien sensoreiden kautta, että verkottuneilla viesteillä toisesta ajoneuvosta tai infrastruktuurista. CAN-väylään voi tehdä palveluestohyökkäyksiä ja valeviestejä. Viihdejärjestelmistä ja kannettavista laitteista voi hyökätä muun muassa FM-radion, mediatiedostojen tai älypuhelimen kautta. Yksityisyyden suojaa uhkaavat salakuuntelu ja -katselu, sekä erilaiset tavat seurata ajoneuvon sijaintia kuten nopeuden seuranta, suuret joukot autonomisia ajoneuvoja ja kilometripohjainen tienkäyttömaksu. Keinoja suojautua tietoturvauhilta on käyty läpi sekä jokaisen hyökkäyksen kohdalla erikseen, että kootusti kategorisoituna tietotekniseen suojaukseen, sensoridatan suojaukseen sekä yksityisyyden suojan suojaukseen. Perinteiset tietotekniset suojaukset kuten autentikaatio, suojatut yhteydet ja palomuurit ovat tarpeellisia myös autonomissa ajoneuvoissa. Sensoridatan luotettavuutta ja vikasietoisuutta voidaan parantaa suodatuksella, sensorifuusiolla ja parviennusteella. Lisäksi lohkoketjulla on esitetty ratkaisumalleja yksityisyyden suojan, kuten sijainnin seurannan, ongelmiin verkottuneissa ajoneuvoissa. Läpikäytävistä uhista on tehty riskianalyysi riskin suuruuden selvittämiseksi. Riskianalyysissa käytettiin hyökkäyksen onnistumisen todennäköisyyttä ja hyökkäyksen vaikutuksia, joista saatiin riskimatriisilla riskin suuruus. Suurimpia riskejä hyökkäyksissä autonomisiin ajoneuvoihin ovat satelliittipaikannuksen huijaussignaali ja häirintä, sekä kartta-aineiston vaihtaminen, sähkömagneettinen pulssi sekä tutkan toimintaa haittaava häivemateriaali. Suurimpia riskejä hyökkäyksissä verkottuneisiin ajoneuvoihin ja liikennetelematiikkaan ovat verkottuneiden ajoneuvon väärennetyt turvallisuusviestit verkottuneiden ajoneuvojen kautta tuleva karttatietojen myrkytys. Lopuksi tarkastelussa pohditaan riskien hyväksyttävää tasoa, mietitään käytettyjen menetelmien luotettavuutta, sekä esitetään kirjoittajan omia mielipiteitä.
  • Tuomainen, Risto Olli Oskari (2016)
    In nearest neighbors search the task is to find points from a data set that lie close in space to a given query point. To improve on brute force search, that computes distances between the query point and all data points, numerous data structures have been developed. These however perform poorly in high dimensional spaces. To tackle nearest neighbors search in high dimensions it is commonplace to use approximate methods that only return nearest neighbors with high probability. In practice an approximate solution is often as good as an exact one, among other reasons because approximations can be of such a high quality that they are practically indistinguishable from exact solutions. Approximate nearest neighbors search has found applications in many different fields, and can for example be used in the context of recommendation systems. One class of approximate nearest neighbors algorithms is space partitioning methods. These algorithms recursively partition the data set to smaller subsets in order to construct a search structure. Queries can then be performed very efficiently by using this structure to prune data points without needing to evaluate their distances to the query point. A recent proposal belonging to this class of algorithms is multiple random projections trees (MRPT). MRPT uses random projection trees (RP-trees) to prune the set from which nearest neighbors are searched. This thesis proposes a voting algorithm for using multiple RP-trees in nearest neighbors search. We also discuss a further improvement, called mixture method. The performance of these algorithms was evaluated against the previous MRPT algorithm using two moderately high dimensional data sets. Mixture method was found to improve considerably on MRPT in terms of accuracy attained. The results presented in this thesis suggest that the mixture method may potentially be a strong algorithm for nearest neighbors search, especially in very high dimensional spaces.
  • Torkko, Petteri (2013)
    Organisaatioiden liiketoimintajärjestelmät ovat tyypillisesti organisaation toimintaan sopivaksi muokattuja suljettuja kokonaisuuksia, joiden on kuitenkin tarpeen integroitua muihin järjestelmiin. Integraatioalustat tarjoavat malleja ja palveluita, joiden avulla heterogeenisten järjestelmien keskinäistä tiedon ja prosessien jakoa voidaan korkealla tasolla yksinkertaistaa. Tutkielman tarkoituksena on löytää vanhentuneen integraatioalustan rinnalle modernimpi alusta. Vertaamalla olemassaolevaa alustaa tyypillisiin järjestelmäintegraatioissa käytettyihin menetelmiin, arkkitehtuureihin ja suunnittelumalleihin saadaan monien alustojen joukosta valittua yksi (Spring Framework ja sen laajennokset), jota tutkitaan tarkemmin. Käyttäjille suunnatun kyselyn avulla olemassaolevasta alustasta selvinneisiin ongelmakohtiin vertaamalla saadaan uudelle alustalle tehtyä maaliperustaiset vaatimukset, sekä niihin liittyvät metriikat. Alustojen vertailusta saatujen tulosten perusteella uusi alusta täyttää sille asetetut vaatimukset, ja paikkaa olemassaolevan alustan ongelmat.