Liity verkostomme!

Tietotekniikka

OASI, ensimmäinen hakukone, joka löytää algoritmit, joita hallitukset ja yritykset käyttävät kansalaisissa

SHARE:

Julkaistu

on

Käytämme rekisteröitymistäsi tarjotaksemme sisältöä suostumuksellasi ja parantaaksemme ymmärrystäsi sinusta. Voit peruuttaa tilauksen milloin tahansa.

  • Eticas Foundationin luoma Observatory of Algoritms with Social Impact, OASI, kerää tietoa kymmenistä algoritmeista, joita julkishallinto ja yritykset ympäri maailmaa käyttävät saadakseen lisätietoja niiden sosiaalisista vaikutuksista.
  • Tavoitteena on antaa yleisölle pääsy hallituksia ja yritysalgoritmeja koskeviin tietoihin sekä tietää, kuka niitä käyttää, kuka niitä kehittää, mitä uhkia ne edustavat ja onko ne tarkastettu.
  • Algoritmin harhaa ja syrjintää esiintyy yleensä muun muassa iän, sukupuolen, rodun tai vamman perusteella, mutta yleisen avoimuuden puutteen vuoksi ei ole vieläkään mahdollista tietää kaikkia sen seurauksia kärsiville ryhmille.

Eticas Foundation, voittoa tavoittelematon järjestö, joka edistää algoritmien ja tekoälyn (AI) järjestelmien vastuullista käyttöä, on luonut Observatory of Algorithms with Social Impact (OASI). Tämä observatorio esittelee hakukoneen, joka tietää enemmän työkaluista, jotka tekevät tärkeitä automaattisia päätöksiä kansalaisille, kuluttajille ja käyttäjille ympäri maailmaa.

Tällä hetkellä sekä yritykset että julkishallinto automatisoivat päätöksiä algoritmien ansiosta. Kuitenkin, sen kehittäminen ja käyttöönotto ei noudata ulkoista laadunvalvontaa, eikä se ole niin läpinäkyvää kuin pitäisi, mikä jättää väestön suojaamatta. Tämän hakukoneen avulla kuka tahansa voi saada lisätietoja näistä algoritmeista: kuka on kehittänyt ne, kuka käyttää niitä, niiden soveltamisala, onko ne tarkastettu, niiden tavoitteet tai sosiaaliset vaikutukset ja edustamat uhat.

Tällä hetkellä, OASI kerää 57 algoritmia, mutta odottaa saavuttavansa 100 seuraavien kuukausien aikana. Niistä 24 on jo hakemassa Yhdysvalloissa hallituksen ja Big Tech -yritysten toimesta. Esimerkiksi ShotSpotter, algoritmityökalu, jonka Oaklandin poliisilaitos on ottanut käyttöön aseiden väkivallan torjumiseksi ja vähentämiseksi äänenvalvontamikrofonien avulla, ja algoritmi, jolla ennustetaan mahdollinen lasten hyväksikäyttö ja laiminlyönti, jota käyttää Allegheny County, Pennsylvania. Toinen esimerkki yritykseltä on Rekognition, Amazonin kasvojentunnistusjärjestelmä, jonka MIT Media Lab auditoi alkuvuodesta 2019 ja jonka havaittiin toimivan huomattavasti huonommin tunnistettaessa yksilön sukupuoli, jos hän oli nainen tai tummaihoisempi.

Yleisin syrjintä on iän, sukupuolen, rodun tai vamman perusteella, kehittäneet tahattomasti kehittäjät, joilla ei ole sosioekonomisia taitoja ymmärtää tämän tekniikan vaikutuksia. Tässä mielessä nämä insinöörit suunnittelevat algoritmit vain teknisten taitojen perusteella, ja koska ulkoisia ohjaimia ei ole ja se näyttää toimivan odotetusti, algoritmi jatkaa oppimista puutteellisista tiedoista.

Koska joidenkin näiden algoritmien toiminta ei ole läpinäkyvää, Eticas -säätiö kehittää OASI: n käynnistämisen lisäksi ulkoisten tarkastusten hanketta. Ensimmäinen on VioGén, algoritmi, jota Espanjan sisäministeriö käytti määrittämäänkseen riskin naisille, jotka etsivät suojelua perheväkivallan jälkeen. Eticas suorittaa ulkoisen tarkastuksen käyttämällä käänteistä suunnittelua ja hallinnollisia tietoja, haastatteluja, raportteja tai suunnittelukomentosarjoja kerätäkseen tuloksia laajamittaisesti. Kaiken tämän tarkoituksena on löytää mahdollisuuksia parantaa näiden naisten suojelua.

"Huolimatta algoritmisista valvonta- ja tarkastusmenetelmistä, joilla varmistetaan, että tekniikka kunnioittaa nykyisiä määräyksiä ja perusoikeuksia, hallinto ja monet yritykset jatkavat kuuroa kansalaisten ja instituutioiden avoimuuspyynnöistä", kertoi Gemma Galdon, Eticas -säätiön perustaja . ”OASI: n lisäksi olemme julkaisseet useita vuosia sen jälkeen, kun olemme kehittäneet yli tusinaa auditointeja sellaisille yrityksille kuin Alpha Telefónica, Yhdistyneet kansakunnat, Koa Health tai Amerikan kehityspankki, ja näin ollen olemme julkaisseet myös oppaan algoritmikontrollista. että kuka tahansa voi suorittaa ne. Tavoitteena on aina lisätä tietoisuutta, tarjota läpinäkyvyyttä ja palauttaa luottamus tekniikkaan, jonka ei itsessään tarvitse olla haitallista. ”

Tässä mielessä algoritmit, jotka on koulutettu koneoppimistekniikoille ja jotka käyttävät suurta määrää historiallista tietoa "opettavat" heitä valitsemaan aiempien päätösten perusteella. Yleensä nämä tiedot eivät edusta sitä sosioekonomista ja kulttuurista todellisuutta, johon niitä sovelletaan, mutta monissa tapauksissa ne heijastavat epäoikeudenmukaista tilannetta, jota ei ole tarkoitus säilyttää. Tällä tavalla algoritmi tekisi teknisesti "oikeita" päätöksiä koulutuksensa mukaisesti, vaikka todellisuus on, että sen suositukset tai ennusteet ovat puolueellisia tai syrjiviä.

Mainos

Tietoja Eticas Foundationista

Eticas-säätiö pyrkii kääntämään teknisiksi eritelmiksi yhteiskunnan ohjaavat periaatteet, kuten yhtäläiset mahdollisuudet, avoimuus ja syrjimättömyys, jotka sisältyvät teknologioihin, jotka tekevät automaattisia päätöksiä elämästämme. Se pyrkii tasapainoon muuttuvien sosiaalisten arvojen, uusimpien saavutusten teknisten mahdollisuuksien ja oikeudellisen kehyksen välillä. Tätä varten se tarkastaa algoritmeja, varmistaa, että digitaaliseen maailmaan, erityisesti tekoälyyn, sovelletaan oikeudellisia takuita, ja tekee intensiivistä työtä tietoisuuden lisäämiseksi ja vastuullisen, laadukkaan teknologian tarpeen levittämiseksi.

Jaa tämä artikkeli:

EU Reporter julkaisee artikkeleita useista ulkopuolisista lähteistä, jotka ilmaisevat monenlaisia ​​näkökulmia. Näissä artikkeleissa esitetyt kannat eivät välttämättä ole EU Reporterin kantoja.

Nousussa