Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by Subject "luottokelpoisuuden arviointi"

Sort by: Order: Results:

  • Haajanen, Senni (2024)
    Tutkielmassa tarkastellaan, mitkä ovat kuluttajan suojakeinot ja oikeudet tilanteissa, joissa hylkäävä luottopäätös perustuu automaattiseen päätöksentekoon, mukaan lukien profilointiin, ja miten näihin keinoihin vaikuttaa se, jos päätöksenteon taustalla on tekoälyksi luokiteltava järjestelmä. Lisäksi vertaillaan suojakeinoja kuluttajan oikeuksiin silloin, kun kyse ei olekaan lainkaan automaattiseksi luokiteltavasta luottopäätöksestä. Tutkimme, ovatko suojakeinot toiminnasta aiheutuviin riskeihin nähden riittäviä ja miten sääntelyä tulisi tältä osin jatkossa kehittää. Automaattisen päätöksenteon suojakeinot kiteytyvät oikeuteen vaatia ihmisen osallistumista tietojen käsittelemiseen, oikeuteen esittää kantansa, oikeuteen saada selvitys päätöksestä ja siihen johtaneesta arvioinnista sekä oikeuteen riitauttaa päätös. Nämä suojakeinot kuitenkin eroavat toisistaan, riippuen tarkasteltavasta sääntelystä. (Automaattista) luottopäätöstä koskeva sääntely on tähän asti pohjautunut yleiseen tietosuoja-asetukseen sekä kuluttajansuojasääntelyyn, erityisesti EU:n kuluttajaluottodirektiiviin. Tässä tutkielmassa tarkastellaan erityisesti marraskuussa 2023 voimaantullutta toista kuluttajaluottodirektiiviä, joka aiempaa versiotaan laajemmin säätää nimenomaan automaattisesta tietojenkäsittelystä luotonannon yhteydessä. Maailman ensimmäinen tekoälysäädös EU:n tekoälyasetus tuo oman lisäkerroksensa automaattista luottopäätöksentekoa koskevaan sääntelyyn. Tekoälyasetus muun muassa edellyttää suuririskisiksi luokiteltavilta tekoälyjärjestelmiltä, joita käytetään arvioitaessa luonnollisten henkilöiden luottopisteytystä tai luottokelpoisuutta, erityistä ihmisvalvontaa, mikä osaltaan vaikuttaa kokonaisuuteen. Tutkielmassa läpikäydään näiden edelle mainittujen sääntelyiden yhtäläisyyksiä, eroavaisuuksia ja ristiriitaisuuksia, ja esitetään, miten ensinnäkin ei vielä tutkielman kirjoittamishetkellä sovellettavaa oikeutta olevia toista kuluttajaluottodirektiiviä ja tekoälyasetusta tulisi tulkita ja toisaalta tätä vanhempia sääntelyitä ja koko sääntelyverkostoa kehittää, jotta riittävän suoja kuluttajan perusoikeuksien, erityisesti syrjinnän ehkäisemisen, osalta automatisoidussa luotonannossa toteutuu.
  • Hänninen, Sini-Sofia (2020)
    Tietokoneet tekevät ihmisten arkeen vaikuttavia päätöksiä ohjelmoitujen päätössääntöjen, eli algoritmien, perusteella usein automaattisesti. Eräs yhteiskunnallinen toiminto, jonka parissa automatisoitu päätöksenteko on tyypillistä, on kulutusluotonanto. On tavallista, että tietokonealgoritmi toteuttaa kuluttajan luottokelpoisuuden arvioinnin, ja sitä kautta tekee päätöksen luottohakemuksen hyväksymisestä tai hylkäämisestä, automaattisesti. Tämän kaltaiseen menettelyyn liittyy oikeudenmukaisuuden toteutumiseen liittyviä riskejä. Onnistuuko algoritmi erottelemaan luottokelpoiset hakijat luottokelvottomista riittävän tarkasti kuitenkaan syrjimättä ketään? Onko hakijoiden pisteyttäminen sukupuolen perusteella sallittua, vai onko tällaisessa menettelyssä kyse kielletystä syrjinnästä? Kysymykset ovat tärkeitä, mutta samalla vaikeita, sillä niihin vastaamiseksi on ensin määriteltävä, mitä syrjinnällä algoritmisen päätöksentekojärjestelmän kohdalla tarkoitetaan. Tässä tutkielmassa algoritmien syrjivyyttä käsitellään tilasto- ja tietojenkäsittelytieteen parissa kehitetyn, algoritmin tekemien virheellisten päätösten suhteelliseen jakautumiseen keskittyvän, määritelmän avulla. Tutkielman tavoitteena on selvittää, miten mainittu algoritmisen syrjinnän määritelmä olisi operationalisoitavissa osaksi alun perin ihmisen päätöksentekoa ohjailemaan kehitettyä syrjinnänvastaista oikeutta. Tarkastelu osoittaa, että syrjinnän oikeudelliset määritelmät eivät ongelmitta onnistu kattamaan tällaista syrjinnän määritelmää. Tältä osin tutkielma valottaa tarvetta uudistaa syrjintää koskevaa perusoikeusdoktriinia siten, että sen avulla kyetään tarkoituksenmukaisesti sääntelemään syrjinnästä myös algoritmisen päätöksenteon omat lainalaisuudet huomioon ottaen. Muussa tapauksessa vaarana on, että syrjintäsääntelyn soveltaminen johtaa epätasa-arvoisiin lopputuloksiin.