Verdienen Sie Geld mit Ihren Tech-Blogs, Gadgets und Tipps

Mitä on vastuullinen tekoäly (AI)?

Huomautus: Seuraava artikkeli auttaa sinua: Mikä on vastuullinen tekoäly (AI)?

Mitä on vastuullinen tekoäly (AI)?

Mitä tulee tekoälyn moraalisiin kysymyksiin, on olemassa tarve luoda vastuullinen tekoäly käyttämällä tässä artikkelissa annettuja määritelmiä. Tarkastelemme neljää näkökohtaa, joita tarvitaan tekoälyn käyttöönotossa.

Tekoälyyn liittyy monia huolenaiheita, kuten: B. epäoikeudenmukaiset päätökset, irtisanomiset sekä tietosuoja- ja tietoturvaloukkaukset. Vielä pahempaa on, että monet näistä ongelmista liittyvät nimenomaan tekoälyyn. Tämä tarkoittaa, että olemassa olevat ohjeet ja säännöt tekoälyn käsittelyyn eivät sovellu. Tässä tulee esiin vastuullinen tekoäly. Sen tarkoituksena on käsitellä näitä kysymyksiä ja luoda vastuullisuutta tekoälyjärjestelmille.

Tekoäly ja koneoppiminen ovat läsnä jokapäiväisessä elämässämme, ja autoista sosiaaliseen mediaan tekoäly on auttanut maailmaamme toimimaan nopeammin kuin koskaan ennen.

Kun nämä tekniikat integroituvat jokapäiväiseen elämäämme, herää monia kysymyksiä näiden tekniikoiden eettisyydestä sekä kehityksestä ja käytöstä. Tekoälytyökalut ovat todellisiin tietoihin perustuvia malleja ja algoritmeja, jotka heijastavat todellisia epäoikeudenmukaisuuksia, kuten rasismia ja naisvihaa. Nämä tiedot johtavat malleihin, jotka ylläpitävät stereotypioita, tukevat tiettyjä ihmisryhmiä enemmistöä vastaan ​​tai delegoivat epäoikeudenmukaisesti resursseja tai palvelujen saatavuutta. Kaikilla näillä tuloksilla on kauaskantoisia vaikutuksia kuluttajiin ja yrityksiin.

Vaikka monet yritykset ovat alkaneet tunnistaa nämä mahdolliset ongelmat tekoälyratkaisuissaan, vain harvat ovat kehittäneet rakenteita ja toimintatapoja niiden ratkaisemiseksi. Tekoäly ja sosiaalinen oikeudenmukaisuus eivät voi enää toimia kahtena erillisenä maailmana. Niiden on vaikutettava toisiinsa luodakseen työkaluja, jotka auttavat meitä rakentamaan haluamamme maailman. Tekoälyyn liittyviin eettisiin kysymyksiin vastaaminen ja yhteiskuntavastuutemme ymmärtäminen on monimutkainen prosessi, joka vaatii vaativaa työtä ja uhrauksia monilta ihmisiltä.

Miksi tarvitsemme vastuullista tekoälyä?

Kun puhumme tekoälystä, tarkoitamme yleensä koneoppimismallia, jota käytetään järjestelmässä automatisoimaan jotain. Esimerkiksi itse ajava auto voi ottaa kuvia sensoreilla. Koneoppimismalli voi käyttää näitä kuvia ennustamiseen (esim. ennustamiseen, että edessämme oleva esine on puu). Auto käyttää näitä ennusteita tehdäkseen päätöksiä (esim. kääntymällä vasemmalle välttääkseen törmäyksen puuhun). Kutsumme koko järjestelmää tekoälyksi.

Tämä on vain esimerkki. Tekoälyä voidaan käyttää kaikkeen vakuutuksesta syöpädiagnoosiin. Erityinen piirre on, että järjestelmäpäätöksille ei ole rajoituksia. Tämä voi tuoda esiin monia mahdollisia ongelmia ja yritysten on määritettävä selkeä suunta tekoälyn käytölle. Tekoäly vastaa seuranta- ja hallintakehyksestä, joka tähtää juuri tähän.

Tämä viitekehys voi tarjota tietoja siitä, mitä tietoja voidaan kerätä ja käyttää, kuinka malleja tulisi arvioida ja kuinka malleja voidaan ottaa käyttöön ja seurata optimaalisesti. Tämä viitekehys voi myös määrittää, kuka on vastuussa (AI) kielteisistä seurauksista. Yleiset ehdot vaihtelevat yritysten välillä. Jotkut määrittelevät erityisiä lähestymistapoja, toiset ovat avoimempia tulkinnalle. He kaikki pyrkivät saavuttamaan yhden tavoitteen ja luomaan tekoälyjärjestelmiä, jotka ovat tulkittavia, oikeudenmukaisia, turvallisia ja kunnioittavat käyttäjien yksityisyyttä.

Vastuulliset tekoälytavoitteet

Ensimmäisenä mainittu alue on tulkittavuus. Kun tulkitsemme mallia, selitämme, kuinka se ennustaa. Tekoälyjärjestelmä voi hylätä asuntolainahakemuksesi tai diagnosoida syövän. Vaikka nämä päätökset olisivat oikeita, käyttäjä todennäköisesti haluaa selityksen. Jotkut mallit ovat helpompia tulkita kuin toiset ja helpottavat selittämistä. Vastuullinen tekoäly voi luoda tulkittavia malleja tai käyttää vähemmän tulkittavia malleja.

Mallin oikeudenmukaisuus on tulkittavuutta. Tekoälyjärjestelmät voivat tehdä päätöksiä, jotka syrjivät tiettyjä ihmisryhmiä. Tämä harha johtuu mallien opettamiseen käytetyn tiedon harhasta. Yleisesti ottaen mitä tulkittavampi malli on, sitä helpompi on varmistaa oikeudenmukaisuus ja korjata mahdolliset virheet Puolueellisuus. Tarvitsemme edelleen vastuullisen (AI) kehyksen määrittääksemme, kuinka oikeudenmukaisuutta arvioidaan ja mitä tehdä, jos löytyy malli, joka tekee epäreiluja ennusteita. Tämä on erityisen tärkeää käytettäessä vähemmän tulkittavia malleja.

Tekoälyn tulevaisuus on meidän vastuullamme.

Tekoälyn suhteen yritysten odotetaan tekevän muutosta. Tämä tarkoittaa, että heidän on kehitettävä ja otettava käyttöön omat tekoälyohjeensa. Yritykset, kuten Google, Microsoft ja IBM jokaisella on omat ohjeensa. Yksi tämän alueen ongelmista on se, että vastuullisuuden periaatteita (AI) voidaan soveltaa alalla epäasianmukaisesti. Pienemmillä yrityksillä ei ehkä ole edes resursseja kehittää liiketoimintaansa vastaavaa tekoälyä.

Mahdollinen ratkaisu on, että kaikki yritykset noudattavat samoja ohjeita. Esimerkiksi Euroopan komissio julkaisi äskettäin eettiset ohjeet luotettavalle tekoälylle. Tässä oppaassa yksilöidään seitsemän keskeistä ehtoa, jotka tekoälyn on täytettävä ollakseen luotettavia. Nämä ohjeet voivat auttaa yrityksiä varmistamaan, että heidän tekoälyjärjestelmänsä täyttävät samat standardit.

Todellinen kysymys kuuluu: Voidaanko yritysten luottaa säätelevän itseään?

Vuoden 2020 tekoälyn ja koneoppimisen tilaraportti sisältää vastaukset 374 organisaatiolta, jotka työskentelevät datan tai tekoälyn parissa. 75 % yrityksistä sanoi, että tekoäly on tärkeä osa heidän liiketoimintaansa. Kuitenkin vain 25 % heistä piti oikeudenmukaista tekoälyä tärkeänä. Tämä osoittaa, että vastaus on ei. emme voi luottaa heihin. Jotta yleisistä menettelyistä olisi hyötyä, niitä on noudatettava. Toisin sanoen ohjeet pitäisi muuttaa säännöiksi/määräyksiksi ja yrityksiä pitäisi rangaista, jos ne eivät noudata niitä.

Tällä tiellä näytämme olevan. Euroopassa on hiljattain esitetty uusia säännöksiä. Nämä säännöt perustuvat edellä mainittuihin eettisiin ohjeisiin ja vaikuttavat moniin toimialoihin. Yhdysvalloissa ei tällä hetkellä ole tällaisia ​​säännöksiä. Mutta teknologiayritysten, kuten Googlen, Facebookin, Microsoftin ja Applen, johtajat ovat vaatineet lisää lakeja datasta ja tekoälystä. Vaikuttaa siis siltä, ​​että tämä on vain ajan kysymys.

Neljä näkökohtaa vastuulliseen tekoälyyn (AI)

Tässä on joitain käytännön vinkkejä, jotka kannattaa pitää mielessä, kun lähdet tielle kohti vastuullista tekoälyä.

  • Luo tila, jossa ihmiset voivat ilmaista kysymyksensä ja huolensa.
  • Tiedä mitä etsiä tai ainakin mistä aloittaa.
  • Tapaa ihmisiä siellä, missä he ovat, älä siellä, missä haluat heidän olevan
  • Ole rohkea sopeutua oppiessasi.

Luo tila, jossa ihmiset voivat ilmaista kysymyksensä ja huolensa.

Etiikkaa opiskellessa kohtaat epämiellyttäviä totuuksia joka tilanteessa. Tekoälyä vastaan ​​taistelevat vahvimmat joukkueet ovat vastuussa rehellisyydestä itselleen. Nämä tiimit tunnistavat tiedoissaan, malleissaan ja itsensä asettamat mieltymykset ja arvioivat myös, kuinka nämä harhavaikutukset vaikuttavat ympäröivään maailmaan.

Tiiminä meidän on luotava tiloja, joissa voimme puhua vapaasti Mahdollisesti kiistanalaisista aiheista ilman pelkoa seurauksista. Tämä vaatii esimiesten tukea. Joskus on helpompi tavata ja keskustella tiimin kanssa ilman esimiestä ja sitten esitellä ryhmäideoita esimiehille. Tämä anonymiteetin taso voi auttaa luomaan turvallisuuden tunteen, koska tiimin esittämiä ideoita ei voida seurata yhdessä henkilössä. Avoimen viestinnän ja rehellisen palautteen avulla voimme vastata näihin kysymyksiin tehokkaasti. Taistelu moraalista tekoälyä vastaan ​​ei ole sitä, että ryhmä ihmisiä kilpailee toisiaan vastaan; Tämä tiimi vastustaa mallin mahdollisia ongelmia.

Tiedä mitä etsiä tai ainakin mistä aloittaa.

Ongelmien löytäminen tekoälyratkaisuissa voi olla vaikeaa. Mallin huono suorituskyky koulutussarjassa voi viitata siihen, että koulutuspopulaatio ei edusta todellista maailmaa. Esimerkiksi vähemmistön edustaminen voi saada kielityökalun tulkitsemaan aksentteja väärin tai suodattimen tunnistamaan vain valkoiset kasvot. Monia muitakin asioita voi tapahtua.

Tapaa ihmisiä siellä, missä he ovat, älä siellä, missä haluat heidän olevan

Menestyvät tiimit koostuvat erilaisista ihmisistä iästä, kokemuksesta ja taustasta riippumatta heidän elämänsä kaikilla osa-alueilla. Tähän liittyy ensisijaisesti erilainen käsitys tekoälyn eettisistä kysymyksistä. Kasvava tutkimus ja keskustelu vastuullisesta tekoälystä sisältää termejä ja käsitteitä, joita kaikki eivät välttämättä tunne. Joillakin ihmisillä saattaa olla ennakkokäsityksiä sosiaalisen oikeudenmukaisuuden ongelmista, kun taas toiset eivät ehkä ole edes kuulleet joistakin niistä. Kaikkien tiimin jäsenten äänet ansaitsevat tulla kuulluiksi, ja yhteisen kielen ja puitteiden luominen keskustelulle ja ymmärtämiselle on ratkaisevan tärkeää tekoälyn rakentamisessa.

Ole rohkea sopeutua oppiessasi

Vaikka on tärkeää pysyä ajan tasalla ajankohtaisista sosiaalisista oikeudenmukaisuudesta ja tekoälystä, on yhtä tärkeää olla halukas omaksumaan tuntematon. Tekoälyn saavuttamisprosessi edellyttää muutoksen ennakointia, avoimuutta jatkuvalle oppimiselle ja tietoisuutta siitä, että voi syntyä ongelmia, joihin ei ole selkeitä vastauksia.

Tekoäly on nopeasti kehittyvä toimiala, ja ketteryys ja keskittymishalu ovat usein osa peliä. Rohkeutta vaatii kuitenkin halu muuttaa lähestymistapaa eettisistä syistä tai pysäyttää edistyminen riistääkseen käyttäjiltä tällä hetkellä saatavilla olevan työkalun. Tavoitteena ei ole vain Onnistuneesti tuoda työkalu tai malli tuotantoputkesta. Tavoitteena tulisi olla pysyä tekoälyteknologian kärjessä ja varmistaa samalla, että lopputuote on oikeudenmukainen ja edustaa maailmaa, jossa elämme.

Vastuu vastuullisesta tekoälystä on jokaisella.

Yhteinen vastuumme on varmistaa, että epäoikeudenmukaisuutta käsitteleviä malleja luodaan sen sijaan, että niitä säilytetään. Tämän pitäisi alkaa luovuudesta, olla olennainen osa T&K-elinkaaria ja jatkua julkaisuun ja tuotteen loppuelämään saakka. Tietotiede- ja tutkimusryhmät sekä muut tekoälyn varmistamiseen sitoutuneet tiimit eivät koskaan menesty ilman johdon tukea.

Yritykset ja laitokset, jotka pitävät tekoälyä pitkän aikavälin sitoutumisena ja mittaavat menestystä tulojen perusteella, antavat tiimilleen mahdollisuuden esittää kysymyksiä ja huolehtia seurauksista pelkäämättä. Ilmaista. Tämä luo pohdinnan ja pohdinnan syklin, joka vastaa eettisiin kysymyksiin, joita kysymme tekoälyn rakentamisesta ja käyttöönotosta. Näin virheitä tehdään, emmekä yleensä ole niitä, jotka välittävät innovaatioista mahdollisten haittojen ehkäisemiseksi. Sen sijaan meidän tehtävämme on tarkastella kriittisesti edistymistämme tehdäksemme maailmasta oikeudenmukaisemman paikan.