Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by Subject "profilointi"

Sort by: Order: Results:

  • Haajanen, Senni (2024)
    Tutkielmassa tarkastellaan, mitkä ovat kuluttajan suojakeinot ja oikeudet tilanteissa, joissa hylkäävä luottopäätös perustuu automaattiseen päätöksentekoon, mukaan lukien profilointiin, ja miten näihin keinoihin vaikuttaa se, jos päätöksenteon taustalla on tekoälyksi luokiteltava järjestelmä. Lisäksi vertaillaan suojakeinoja kuluttajan oikeuksiin silloin, kun kyse ei olekaan lainkaan automaattiseksi luokiteltavasta luottopäätöksestä. Tutkimme, ovatko suojakeinot toiminnasta aiheutuviin riskeihin nähden riittäviä ja miten sääntelyä tulisi tältä osin jatkossa kehittää. Automaattisen päätöksenteon suojakeinot kiteytyvät oikeuteen vaatia ihmisen osallistumista tietojen käsittelemiseen, oikeuteen esittää kantansa, oikeuteen saada selvitys päätöksestä ja siihen johtaneesta arvioinnista sekä oikeuteen riitauttaa päätös. Nämä suojakeinot kuitenkin eroavat toisistaan, riippuen tarkasteltavasta sääntelystä. (Automaattista) luottopäätöstä koskeva sääntely on tähän asti pohjautunut yleiseen tietosuoja-asetukseen sekä kuluttajansuojasääntelyyn, erityisesti EU:n kuluttajaluottodirektiiviin. Tässä tutkielmassa tarkastellaan erityisesti marraskuussa 2023 voimaantullutta toista kuluttajaluottodirektiiviä, joka aiempaa versiotaan laajemmin säätää nimenomaan automaattisesta tietojenkäsittelystä luotonannon yhteydessä. Maailman ensimmäinen tekoälysäädös EU:n tekoälyasetus tuo oman lisäkerroksensa automaattista luottopäätöksentekoa koskevaan sääntelyyn. Tekoälyasetus muun muassa edellyttää suuririskisiksi luokiteltavilta tekoälyjärjestelmiltä, joita käytetään arvioitaessa luonnollisten henkilöiden luottopisteytystä tai luottokelpoisuutta, erityistä ihmisvalvontaa, mikä osaltaan vaikuttaa kokonaisuuteen. Tutkielmassa läpikäydään näiden edelle mainittujen sääntelyiden yhtäläisyyksiä, eroavaisuuksia ja ristiriitaisuuksia, ja esitetään, miten ensinnäkin ei vielä tutkielman kirjoittamishetkellä sovellettavaa oikeutta olevia toista kuluttajaluottodirektiiviä ja tekoälyasetusta tulisi tulkita ja toisaalta tätä vanhempia sääntelyitä ja koko sääntelyverkostoa kehittää, jotta riittävän suoja kuluttajan perusoikeuksien, erityisesti syrjinnän ehkäisemisen, osalta automatisoidussa luotonannossa toteutuu.
  • Sahlman, Kia (2023)
    Erilaisten verkkoalustojen ja sosiaalisen median yleistymisen myötä myös poliittinen mainonta on ajan saatossa siirtynyt verkkoon. Nykypäivänä mainonnassa käytettävä profilointi ja muu mikrokohdentaminen ovat lisänneet verkossa levitettävän disinformaation ja manipulaation määrää. Monet sosiaalisen median palvelut tarjoavat erilaisia kohdentamispalveluita, joilla esimerkiksi poliittiset toimijat voivat kohdentaa viestintää sosiaalisen median käyttäjille heidän poliittisten tai muiden kiinnostuksen kohteidensa perusteella. Yksityisyyteen puuttuva kohdennettu poliittinen mainonta luo riskejä niin yksilöille kuin myös yhteiskunnallisella tasolla koko demokraattisen järjestelmän toimivuudelle. Tutkielmassa tarkastellaan poliittista mainontaa kohdennettaessa tapahtuvaa henkilötietojen käsittelyä Euroopan unionin (EU) yleisen tietosuoja-asetuksen lainmukaisuuden periaatteeseen sisältyvän oikeusperusteen valinnan kautta. Tutkielmassa systematisoidaan ja analysoidaan eri käsittelyperusteita sekä niiden soveltuvuutta vaalimainonnan kohdentamiseen. Rekisterinpitäjän on käsitellessään henkilötietoja mainonnan kohdentamiseen otettava huomioon tietosuoja-asetuksen 6, 9 ja 22 artiklan säännökset. Tietojen käsittelylle tulee löytyä lainmukainen peruste 6 artiklasta, ja käsitellessä erityisiä henkilötietoryhmiä 9 artiklan poikkeusperusteista jonkun tulee soveltua. Poliittista mainontaa kohdennettaessa käsitellään nimittäin usein tietoa rekisteröidyn poliittisesta mielipiteestä. Rekisterinpitäjän on lisäksi huomioitava 22 artiklan vaatimukset automaattisesta päätöksenteosta. Tutkielman aihe on ajankohtainen, sillä Euroopan komissio on antanut vuonna 2021 asetusehdotuksen poliittisen mainonnan läpinäkyvyydestä ja kohdentamisesta. Tutkielmassa tarkastellaan lisäksi tätä uutta asetusehdotusta ja sen mahdollisesti tuomia muutoksia poliittista mainontaa kohdennettaessa käytettävän oikeusperusteen valintaan. Asetusehdotuksen tarkastelussa keskitytään siihen sisältyvän erityisten henkilötietoryhmien käsittelyn kieltoon käytettäessä kohdentamis- ja voimistamistekniikoita poliittisessa mainonnassa. Myös digipalvelusäädöksen vaikutuksia tutkielman aiheeseen sivutaan lyhyesti. Tutkielmassa esitetyin perustein vaalimainonnan kohdentaminen perustuu tietosuoja-asetuksen nojalla suurimmassa osassa tapauksia rekisteröidyn suostumukseen tai nimenomaiseen sellaiseen, eikä komission asetusehdotus ehdotetussa muodossaan toisi tähän suuria muutoksia. Vaikka ehdotuksessa kielletään arkaluonteisten tietojen käsittely kohdentamis- ja voimistamistekniikoiden yhteydessä, kieltoon ehdotetut poikkeukset tekisivät sen pitkälti tehottomaksi eikä ehdotus sellaisenaan palvelisi tarpeeksi tehokkaasti sääntelyn tarkoitusta ehkäistä kohdennetun poliittisen mainonnan aiheuttamia negatiivisia seurauksia. Asetusehdotuksen käsittely on kuitenkin tutkielman kirjoittamisen hetkellä kesken EU:ssa ja ehdotukseen on esitetty muutoksia, jotka pääosin tiukentaisivat kohdentamis- ja voimistamistekniikoiden käytölle esitettyjä rajoituksia poliittisessa mainonnassa.
  • Sydänmaanlakka, Saana (2023)
    Tutkielmassa tarkastellaan EU:n tietosuoja-asetuksen asettamia edellytyksiä automaattiselle päätöksenteolle ja verrataan näitä kansalliseen terveydenhuollon sääntelykehikkoon. Tutkielmassa tunnistetaan tekoälyn käyttöönotolle ennakoivassa palveluntarjonnassa terveydenhuollossa liittyviä riskejä esimerkiksi yhdenvertaisuuteen, oikeusturvaan ja henkilötietojen suojaan liittyen. Näihin teemoihin liittyvää sääntelyä on runsaasti sekä EU-oikeuden, kansallisen oikeuden, että kansainvälisen oikeuden kentällä. Tutkielmassa esitetään, että tekoälypohjaisten järjestelmien käyttöönotto terveydenhuollon palveluntarjoamiseen edellyttäisi erityissääntelyä, joka huomioisi säännöskokonaisuuden, tekoälyjärjestelmien erityisen luonteen sekä erityiset riskit terveydenhuollon kontekstissa. Tutkielmassa tuodaan esille sääntelyn soveltumattomuus tekoälypohjaisten ratkaisujen ongelmien ehkäisyssä. Lopputuloksena muodostetaan kuvaus siitä, millaisilla juridisilla ratkaisuilla tekoälyjärjestelmien käyttö olisi mahdollista terveydenhuollon palveluiden tarjoamisessa ennaltaehkäisevän terveydenhuollon tavoitteiden ja siitä seuraavien kustannushyötyjen saavuttamiseksi. Näiden sääntelyratkaisujen ytimessä on niissä määritellyt suojakeinot rekisteröityjen oikeuksien suojaamiseksi. Tutkielmassa tarkastellaan yksilön itsemääräämisoikeuteen ja ihmisen interventioon nojaavien suojakeinojen toimivuutta tekoälyratkaisujen käyttöönotossa. Tietosuojajuridiikan itsemääräämisoikeutta ja tiedonsaantioikeuksia korostavaa kehystä verrataan kansalliseen lääkintäoikeuden perinteeseen potilaiden itsemääräämisoikeudesta, sekä kansalliseen terveydenhuollon oikeussuojajärjestelmään.
  • Hänninen, Sini-Sofia (2020)
    Tietokoneet tekevät ihmisten arkeen vaikuttavia päätöksiä ohjelmoitujen päätössääntöjen, eli algoritmien, perusteella usein automaattisesti. Eräs yhteiskunnallinen toiminto, jonka parissa automatisoitu päätöksenteko on tyypillistä, on kulutusluotonanto. On tavallista, että tietokonealgoritmi toteuttaa kuluttajan luottokelpoisuuden arvioinnin, ja sitä kautta tekee päätöksen luottohakemuksen hyväksymisestä tai hylkäämisestä, automaattisesti. Tämän kaltaiseen menettelyyn liittyy oikeudenmukaisuuden toteutumiseen liittyviä riskejä. Onnistuuko algoritmi erottelemaan luottokelpoiset hakijat luottokelvottomista riittävän tarkasti kuitenkaan syrjimättä ketään? Onko hakijoiden pisteyttäminen sukupuolen perusteella sallittua, vai onko tällaisessa menettelyssä kyse kielletystä syrjinnästä? Kysymykset ovat tärkeitä, mutta samalla vaikeita, sillä niihin vastaamiseksi on ensin määriteltävä, mitä syrjinnällä algoritmisen päätöksentekojärjestelmän kohdalla tarkoitetaan. Tässä tutkielmassa algoritmien syrjivyyttä käsitellään tilasto- ja tietojenkäsittelytieteen parissa kehitetyn, algoritmin tekemien virheellisten päätösten suhteelliseen jakautumiseen keskittyvän, määritelmän avulla. Tutkielman tavoitteena on selvittää, miten mainittu algoritmisen syrjinnän määritelmä olisi operationalisoitavissa osaksi alun perin ihmisen päätöksentekoa ohjailemaan kehitettyä syrjinnänvastaista oikeutta. Tarkastelu osoittaa, että syrjinnän oikeudelliset määritelmät eivät ongelmitta onnistu kattamaan tällaista syrjinnän määritelmää. Tältä osin tutkielma valottaa tarvetta uudistaa syrjintää koskevaa perusoikeusdoktriinia siten, että sen avulla kyetään tarkoituksenmukaisesti sääntelemään syrjinnästä myös algoritmisen päätöksenteon omat lainalaisuudet huomioon ottaen. Muussa tapauksessa vaarana on, että syrjintäsääntelyn soveltaminen johtaa epätasa-arvoisiin lopputuloksiin.
  • Teittinen, Helinä (2020)
    Julkishallinnon automatisointi on noussut viime vuosina hallinto-oikeudellisen keskustelun keskiöön. Suomessa oikeusministeriö selvittää tarvetta säännellä automaattista päätöksentekoa yleislailla, ja automaattisen päätöksenteon ongelmakohtiin julkista valtaa käytettäessä ovat kiinnittäneet huomiota niin perustuslakivaliokunta, ylimmät laillisuusvalvojat kuin oikeustieteen tutkijatkin. Samanaikaisesti myös Euroopan unionin (EU) yleisen tietosuoja-asetuksen (TSA) 22 artikla pitää sisällään automaattista päätöksentekoa koskevaa sääntelyä. Viranomaisessa sovellettuna TSA 22 artikla voidaankin tulkita hallintomenettelynormiksi, joka määrittää viranomaisen toimivallan ja menettelymuodot automaattisen päätöksenteon saralla. Asetelma pitää sisällään toimivaltajännitteen, sillä Euroopan unionille ei ole annettu toimivaltaa harmonisoida jäsenvaltioiden viranomaisia koskevia hallintomenettelysäännöksiä. Tutkielman tavoitteena on selvittää, antavako Euroopan unionista tehdyn sopimuksen (SEUT) 16 artikla sekä Euroopan unionin perusoikeuskirjan (PeOK) 8 artikla Euroopan unionille toimivallan säännellä viranomaisen menettelyä automaattisessa päätöksenteossa. Toisekseen tutkielma pyrkii selvittämään, missä laajuudessa muut EU-perusoikeudet turvaavat yksilön menettelyllisiä oikeusturvatakeita automaattisessa päätöksenteossa. Tutkielma on luonteeltaan lainopillinen tutkimus Euroopan unionin oikeudesta. Jäsenvaltion viranomaisen toiminnan osalta tutkielma käyttää esimerkkeinä myös suomalaisia säännöksiä, sillä tutkielma pyrkii tuomaan EU-oikeudellisen näkökulman nimenomaan Suomessa käynnissä olevaan keskusteluun julkishallinnon automaattisesta päätöksenteosta. Tutkimuskohteena ovat Euroopan unionin perussopimukset, Euroopan unionin perusoikeuskirja sekä Euroopan unionin yleinen tietosuoja-asetus. PeOK 8 artiklan tulkinnassa merkitystä saa myös Euroopan ihmisoikeustuomioistuimen (EIT) Euroopan ihmisoikeussopimuksen (EIS) 8 artiklaa (oikeus nauttia yksityisyyden ja perhe-elämän kunnioitusta) koskeva oikeuskäytäntö. Euroopan unionin oikeusperusta henkilötietojen suojan alalla on SEUT 16 artikla, jonka laajuus määräytyy viime kädessä henkilötietojen suojaa koskevan PeOK 8 artiklan mukaisesti. Vaikka automaattista päätöksentekoa ei mainita kummankaan artiklan sanamuodossa, soveltuu automaattisen päätöksenteon sääntely hyvin yhteen PeOK 8 artiklan menettelylliseen luonteen ja henkilötietojen suojaan liittyvän tiedollisen itsemääräämisoikeuden ulottuvuuden kanssa. Lisäksi EIT on EIS 8 artiklaa koskevassa vakiintuneessa oikeuskäytännössään katsonut, että yksilön EIS 8 artiklassa vahvistettujen oikeuksien toteutuminen edellyttää myös menettelyn asianmukaisuutta viranomaisessa, vaikka EIS:ssa ei varsinaista hyvää hallintoa koskevaa artiklaa olekaan. Edellä mainitusta huolimatta automaattista päätöksentekoa koskeva TSA 22 artikla on soveltamisalaltaan hyvin suppea, ja sen sisältämästä lähtökohtaisesta automaattisen päätöksenteon kiellosta voidaan poiketa monella perusteella. Jäsenvaltion viranomaistoimintaa koskee erityisesti TSA 22 (2) (b) artikla, jonka mukaan automaattisia päätöksiä voidaan tehdä, mikäli näin on erikseen säädetty jäsenvaltion lainsäädännössä, jossa vahvistetaan myös asianmukaiset toimenpiteet yksilön oikeuksien ja vapauksien sekä oikeutettujen etujen suojelemiseksi. Tietosuoja-asetuksessa ei kuitenkaan täsmennetä, mitä nämä asianmukaiset toimenpiteet pitävät sisällään, jolloin EU jättää kansallisille lainsäätäjille varsin vapaat kädet. Toki esimerkiksi yhdenvertaisuutta ja syrjintäkieltoa koskevista PeOK 20 ja 21 artikloista sekä EU-oikeudellisen hyvän hallinnon periaatteesta voidaan johtaa julkishallinnollisen automaattisen päätöksenteon menettelyn laatua koskevia vähimmäisvaatimuksia. Tutkielman johtopäätös on, että yksilön menettelylliset oikeusturvatakeet automaattisessa päätöksenteossa ovat jääneet EU-oikeudessa toisarvoiseen asemaan, vaikka EU:lla olisi toimivaltaa säännellä automaattista päätöksentekoa laajemminkin. Tämän voi otaksua johtuvan siitä, että jäsenvaltion menettelyllisen itsemääräämisoikeuden periaate ohjaa yhä EU-lainsäätäjän toimintaa hallinnollisen integraation saralla. Samanaikaisesti sisämarkkina-argumentaatioon perustuva materiaalisen lainsäädännön harmonisointi ei kuitenkaan näyttäisi olevan EU-lainsäätäjälle ongelma, mikä osaltaan kertoo siitä, että perus- ja ihmisoikeuksien toteuttaminen on Euroopan unionin tärkeysjärjestyksessä vasta toisella sijalla taloudellisten intressien jälkeen. Samalla kuitenkin henkilötietojen suojalla on EU-perusoikeutena vahva asema, mikä kertonee EU-perusoikeuksien välisestä hierarkiasta. Tässä mielessä henkilötietojen suojaan sisältyvien yksilön oikeusturvaa koskevien menettelyllisten elementtien vahvistaminen olisi omiaan parantamaan yksityisen menettelyllistä perusoikeussuojaa Euroopan unionissa.