Browsing by study line "Tekoälyoikeus"
Now showing items 1-6 of 6
-
(2024)Artificial Intelligence is gaining prominence across various sectors, including finance, healthcare, and social security. Notably, its potential in healthcare stands out, with Machine Learning and Deep Learning offering opportunities to enhance diagnosis and treatment decisions. By leveraging health data and genetic information, AI can effectively diagnose diseases and personalize treatments to suit individual patient needs. Recognizing this potential, substantial investments are being made in healthcare AI development. Trade secret protection emerges as a valuable tool to safeguard the intellectual assets underpinning the design, development, and implementation of AI-driven healthcare systems, aligning with the European Union Trade Secret Directive framework. However, alongside its benefits, AI introduces inherent risks, notably its opaque nature, often referred to as a "black box". The European Union's regulatory framework towards trustworthy AI, addresses this by emphasizing explicability as a fundamental ethical principle for trustworthy AI. In this thesis, explicability is framed as a principle aimed at enhancing stakeholders' understanding of how AI systems operate and who bears responsibility for their functioning. Transparency and accountability serve as foundational pillars, achieved through disclosure and effective communication. Consequently, the thesis examines the obligations of transparency and information provision outlined in the AI Act to analyze its stance on explicability. Given these contrasting concepts, it is crucial to examine the dynamic between trade secrecy and explicability from diverse stakeholder perspectives within healthcare AI systems. Consequently, the thesis delves into the viewpoints of public authorities, healthcare professionals, and patients. It concludes that while explicability is vital for fostering trustworthy and ethical healthcare AI, disclosure obligations should not affect trade secrets, thereby discouraging innovation. Moreover, overwhelming patients with excessive information could impair their ability to make informed decisions. To address this balance, the thesis briefly explores practical and theoretical approaches, including Explainable Artificial Intelligence techniques, human oversight, and communication by design and by default. These approaches aim to provide explanations and achieve explicability while safeguarding trade secrets and promoting innovation in healthcare AI.
-
(2024)Generatiivinen tekoäly on tehostanut markkinointiyritysten mahdollisuuksia tuottaa innovatiivisia mainosmateriaaleja entistä tehokkaammin asiakasyrityksen toiveiden mukaisesti. Markkinointiyritysten on otettava toiminnassaan huomioon generatiivisen tekoälyyn ja sen tuottamiin teoksiin liittyvät omistus- ja tekijänoikeuskysymykset, sekä niistä johtuvat oikeudelliset riskit. Tutkielman tavoitteena oli selvittää, mitä tekijänoikeuksiin ja sopimuksiin liittyviä riskejä markkinointiyrityksen tulisi ottaa huomioon, ja miten näitä riskejä voisi hallita sopimusten avulla. Generatiivisen tekoälyn kouluttamisessa on voitu käyttää syötedatana teoksia, joiden käyttöön tekoälyn kehittäjällä ei ole oikeutta. Tällöin myös tekoälyn tuotos eli tuotantodata, jonka markkinointiyritys myy eteenpäin, voi loukata kolmannen osapuolen tekijänoikeuksia ja täyttää esimerkiksi tekijänoikeuslain mukaisen tekijänoikeusrikkomuksen tunnusmerkistön. Tekijänoikeusloukkauksen lisäksi markkinointiyrityksen on otettava toiminnassaan huomioon sopimusvelvoitteet, jotka johtuvat joko osto- tai myyntisopimuksista. Vallitsevan oikeustilan mukaan tekoälyllä luotuun teokseen ei ole mahdollista saada tekijänoikeutta, eikä markkinointitoimisto voi näin ollen luvata näitä oikeuksia asiakasyritykselleenkään. Markkinointiyritys voi siis suoran tekijänoikeusloukkauksen lisäksi syyllistyä sopimusrikkomukseen, josta voi aiheutua sekä taloudellisia menetyksiä että mainehaittoja. Markkinointiyrityksen näkökulmasta generatiivisen tekoälyn käytöstä voi aiheutua riskejä eri osista sopimusketjua, ja nämä riskit voivat koskea sekä syöte- että tuotantodataa. Tekoälyn palveluntarjoaja voi pyrkiä rajaamaan vastuutaan tuotetusta palvelusta ostosopimuksella. Ostosopimuksessa voi olla esimerkiksi kerrottu, millaisella syötedatalla tekoälyä on koulutettu, sekä miten palveluntarjoaja rajaa vastuutaan tuotantodatasta. Markkinointiyrityksen kannalta suurimmat riskit seuraavat ostosopimuksista, joilla palveluntarjoaja rajaa vastuutaan mahdollisista rikkomuksista eikä lupaa suojaa tekijänoikeuskanteita vastaan sekä myyntisopimuksista, joilla markkinointiyritys kantaa itse suuren osan tuotokseen ja sen käyttöön liittyvistä riskeistä myydessään tuotoksia asiakkailleen. Esitettyjä tekijänoikeusloukkaukseen ja sopimusrikkomuksiin liittyviä riskejä voidaan kuitenkin hallita erilaisilla sopimusteknisillä keinoilla, jotka voidaan jakaa neljään kategoriaan: riskien tunnistamiseen ja riskinkantokyvyn arviointiin, palveluntarjoajan valintaan, sopimusten hallintaan ja taloudelliseen hallintaan. Yrityksen kannalta tärkeimmät riskienhallinnan keinot ovat oikean palveluntarjoajan valinta sen perusteella, miten ostosopimus suojaa markkinointiyritystä ja oikein laaditut myyntisopimukset, jotka siirtävät tekijänoikeusproblematiikkaa koskevat riskit asiakkaalle tai rajaavat yrityksen kantamaa vastuuta laadullisesti ja määrällisesti.
-
(2024)Tekoälyjärjestelmien tekninen kehitys on kiihtynyt viime vuosina mahdollistaen myös entistä autonomisempien asejärjestelmien kehittämisen. Tärkeimmät autonomisten asejärjestelmien käyttöön liittyvät kysymykset koskevat nykyisen kansainvälisen lainsäädännön soveltumista niiden sääntelyyn. Tutkielman tärkeimpänä päämääränä oli selvittää, voidaanko yksilön rikosvastuu toteuttaa myös autonomisen aseen avulla tehdyssä sotarikoksessa. Voimassa olevan lainsäädännön tulkinta toteutettiin lainopin menetelmin. Henkilön rikosvastuu sotarikoksesta vaatii kansainvälisen oikeuden näkökulmasta kolmen edellytyksen täyttymistä. Ensinnäkin kansainvälisissä sopimuksissa säädetyn sotarikoksen tunnusmerkistön pitää täyttyä, toiseksi henkilön on täytynyt toimia tahallaan ja kolmanneksi henkilön tulee olla tuomioistuimen toimivallan alainen. Sotarikoksen tunnusmerkistö voi täyttyä autonomisten asejärjestelmien osalta vain erityistä suojelua nauttiviin henkilöihin tai kohteisiin kohdistettujen iskujen kohdalla. Geneven sopimuksiin sisältyvät humanitäärisen oikeuden periaatteet asettavat asejärjestelmän käyttäjälle vaatimuksen erottaa lailliset ja laittomat kohteet toisistaan sekä käyttää vain oikeasuhtaista voimaa laillisia kohteita vastaan. Henkilön tahallisuutta arvioitaessa tulee ottaa huomioon hänen tosiasiallinen toimintansa sekä toiminnasta syntyneet seuraukset. Henkilön toimintaa voidaan pitää tahallisena ainoastaan silloin, kun hän on tarkoittanut aiheuttaa syntyneet seuraukset, tai niiden aiheutumista on tullut pitää toiminnan lähes varmana seurauksena. Autonomisen asejärjestelmän käyttäjän toimintaa arvioitaessa tulee ottaa huomioon asejärjestelmän ominaispiirteet sekä käyttäjän mahdollisuus vaikuttaa sen toimintaan. Mitä suurempi autonomisuuden aste järjestelmässä on, sitä epätodennäköisempään on rikosvastuun muodostuminen. Kansainvälisen rikosvastuun toteutumisen osalta suurimmat haasteet liittyvät universaalin tuomiovallan puutteeseen, sekä täysin autonomisiin asejärjestelmiin kohdistuvaan vastuukatveeseen. Kansainvälisen rikostuomioistuimen toimivalta kattaa myös autonomisilla aseilla tehdyt sotarikokset, mutta sen maantieteellinen toimivalta on melko rajattua. Täysin autonomiset asejärjestelmät tekevät kriittiset päätökset itsenäisesti, esimerkiksi tappavan voiman käytöstä. Kun käyttäjä ei voi vaikuttaa asejärjestelmän valitsemaan kohteeseen, ei hänellä ole mahdollisuuksia arvioida toiminnan vaikutuksia, eikä tahallisuusvaatimus voi täyttyä. Kansainvälisen lainsäädännön pitää tulevaisuudessa pystyä vastaamaan myös näihin rikosvastuun toteutumista estäviin haasteisiin.
-
(2024)Tekoälyteknologioiden käyttöönotto yhteiskunnan eri osa-alueilla luo mahdollisuuksia, mutta aiheuttaa myös riskejä. Tämän vuoksi EU:n tekoälysäädöksellä luodaan horisontaaliset ja yhdenmukaistetut säännöt tekoälyjärjestelmien kehittämiselle ja käytölle. EU:n pyrkimyksenä on sääntelyn avulla edistää tekoälyteknologian käyttöönottoa ja varmistaa samalla unionin oikeushyvien toteutuminen. Tekoälyteknologian käyttöönoton hidasteena on teknologiaa kohtaan koetun luottamuksen puute. Luottamuksen varmistamiseksi sääntelykehys perustuu seitsemälle keskeiselle vaatimukselle, joista yksi on ihmisen toimijuus ja ihmisen suorittama valvonta. Vaatimuksen myötä ihmisen ja tekoälyjärjestelmän vuorovaikutus oikeudellistuu tekoälysäädöksessä. Tutkielman tavoitteena on selvittää oikeudellistuvan vuorovaikutuskäsityksen sisältö. Ihmisen ja järjestelmän vuorovaikutusta on tutkittu HCI-tutkimukseksi nimetyllä (eng. “Human-Computer Interaction Research”) tieteenalalla 1960-luvulta alkaen. Tekoälysäädös analysoidaan teorialähtöisesti käyttäen analyysirunkoa, joka perustuu HCI-tutkimuksessa käytettyihin käsitteisiin ja mallinnuksiin ihminen-kone vuorovaikutuksesta. Tutkielman tiedonintressi on lainopillinen, sillä tavoitteena on empiiristä menetelmää hyödyntämällä selvittää lainsäädäntöön omaksutun vuorovaikutuksen tarkka sisältö. Tutkielmassa on myös sääntelyteoreettinen näkökulma, sillä HCI-tutkimuksen vuorovaikutuskäsitys mahdollistaa lainsäädännön laadun ja sääntelykeinojen kriittisen arvioinnin. Oikeudellinen vuorovaikutuskäsitys muodostuu erityisesti ihmisvalvonnasta, ihmiseen palautettavasta toimijuudesta ja ihmisen suorittamasta päätöksenteosta. Oikeudellinen vuorovaikutuskäsitys on erittäin dikotominen ja vastaa HCI-tutkimuksessa automaation aikakaudella kehitettyjä vuorovaikutuksen käsitteellistämisen tapoja. Oikeudellinen vuorovaikutuskäsitys ei ole ongelmaton, sillä HCI-tutkimuksen näkökulmasta se ei vastaa teknologian kehityksen astetta. Oikeudellinen lähestymistapa luottamuksen rakentamiseen perustuu HCI-tutkimuksessa tehottomiksi tai epäsuotuisiksi todetuille keinoille. Teknologia ja sen sääntely aiheuttaa yhteiskunnalle ja oikeudelle tiettyjä haasteita. Oikeudellista vuorovaikutuskäsitystä selittää oikeuden antroposentrismi. Digitalisaation aiheuttama haaste oikeuden antroposentrismille näkyy tekoälysäädöksessä erityisesti ristiriitana ihmisen vuorovaikutuksessa saaman roolin ja järjestelmien ympäristössään aiheuttamien tosiasiallisten vaikutusten välillä. Ristiriitaisuus on uhka sääntelyn tarkoituksenmukaisuudelle ja siten sääntelyn legitiimiydelle.
-
(2024)Orpon hallitusohjelmassa 2023 esitetään tarve arvioida ja parantaa edellytyksiä biometriikan käyttöön lainvalvonta- ja rikoksentorjuntatarkoituksissa. Lisäksi vakavaksi ongelmaksi mainitaan nuoriso- ja jengirikollisuuden lisääntyminen. Tutkielmassa vastataan kysymykseen siitä, millaiset edellytykset poliisilla on käyttää koneoppivia kasvojentunnistusjärjestelmiä katujengirikosten esitutkinnassa. Nykyisen lainsäädännön todetaan nojaavan henkilötietojen suojan sääntelyyn. Lainsäädäntö ei mahdollista poliisin toteuttamaa reaaliaikaista kasvojentunnistusta, mutta sallii jälkikäteisen automaattisen tunnistamisen. Tekoälysääntelyn puuttumista on pitkään kritisoitu ja tämän sääntelyaukon tulee EU:n tekoälyasetus ainakin teoriassa täyttämään. Asetus sisältää yksityiskohtaista sääntelyä biometristen etätunnistusjärjestelmien käytöstä, mutta sanamuodon perusteella sääntely ei ole aukotonta. Erityisesti lainvalvontaviranomaisille asetettu poikkeus reaaliaikaisen biometrisen etätunnistamisen kiellosta jättää tulkinnanvaraa ja tuomioistuimille työtä tulevan oikeuskäytännön muodostamisessa. Lopuksi tarkastellaan altistaako koneoppivien kasvojentunnistusjärjestelmien käyttö etniselle profiloinnille katujengirikosten esitutkinnassa. Koneoppivien algoritmien erityisesti tummaihoisiin miehiin liittyvät syrjivyyden ja epätarkkuuden ongelmat nähdään merkittävinä riskiä lisäävinä tekijöinä. Riski korostuu katujengirikosten kontekstissa, sillä suurin osa katujengeihin kuuluvista henkilöistä on ensimmäisen tai toisen sukupolven maahanmuuttajamiehiä. Poliisin on todettu syyllistyneen etniseen profilointiin, mikä lisää huolenaihetta järjestelmien mahdollisuudesta vahvistaa päätöksentekijän syrjiviä ennakkoluuloja myös tässä kontekstissa. Koneoppivien algoritmien läpinäkymättömyys nähdään haasteena automaattisen tunnistuksen kohteen oikeussuojakeinoille. Kansallinen lainsäädäntö tarjoaa oikeussuojakeinona etnistä profilointia vastaan hallintokantelun, jonka voi tehdä poliisin toiminnasta ylimmille viranomaisille tai laillisuusvalvojille.
-
(2024)Tutkielmassa tarkastellaan, mitkä ovat kuluttajan suojakeinot ja oikeudet tilanteissa, joissa hylkäävä luottopäätös perustuu automaattiseen päätöksentekoon, mukaan lukien profilointiin, ja miten näihin keinoihin vaikuttaa se, jos päätöksenteon taustalla on tekoälyksi luokiteltava järjestelmä. Lisäksi vertaillaan suojakeinoja kuluttajan oikeuksiin silloin, kun kyse ei olekaan lainkaan automaattiseksi luokiteltavasta luottopäätöksestä. Tutkimme, ovatko suojakeinot toiminnasta aiheutuviin riskeihin nähden riittäviä ja miten sääntelyä tulisi tältä osin jatkossa kehittää. Automaattisen päätöksenteon suojakeinot kiteytyvät oikeuteen vaatia ihmisen osallistumista tietojen käsittelemiseen, oikeuteen esittää kantansa, oikeuteen saada selvitys päätöksestä ja siihen johtaneesta arvioinnista sekä oikeuteen riitauttaa päätös. Nämä suojakeinot kuitenkin eroavat toisistaan, riippuen tarkasteltavasta sääntelystä. (Automaattista) luottopäätöstä koskeva sääntely on tähän asti pohjautunut yleiseen tietosuoja-asetukseen sekä kuluttajansuojasääntelyyn, erityisesti EU:n kuluttajaluottodirektiiviin. Tässä tutkielmassa tarkastellaan erityisesti marraskuussa 2023 voimaantullutta toista kuluttajaluottodirektiiviä, joka aiempaa versiotaan laajemmin säätää nimenomaan automaattisesta tietojenkäsittelystä luotonannon yhteydessä. Maailman ensimmäinen tekoälysäädös EU:n tekoälyasetus tuo oman lisäkerroksensa automaattista luottopäätöksentekoa koskevaan sääntelyyn. Tekoälyasetus muun muassa edellyttää suuririskisiksi luokiteltavilta tekoälyjärjestelmiltä, joita käytetään arvioitaessa luonnollisten henkilöiden luottopisteytystä tai luottokelpoisuutta, erityistä ihmisvalvontaa, mikä osaltaan vaikuttaa kokonaisuuteen. Tutkielmassa läpikäydään näiden edelle mainittujen sääntelyiden yhtäläisyyksiä, eroavaisuuksia ja ristiriitaisuuksia, ja esitetään, miten ensinnäkin ei vielä tutkielman kirjoittamishetkellä sovellettavaa oikeutta olevia toista kuluttajaluottodirektiiviä ja tekoälyasetusta tulisi tulkita ja toisaalta tätä vanhempia sääntelyitä ja koko sääntelyverkostoa kehittää, jotta riittävän suoja kuluttajan perusoikeuksien, erityisesti syrjinnän ehkäisemisen, osalta automatisoidussa luotonannossa toteutuu.
Now showing items 1-6 of 6