Kai mašina pradeda spręsti, kas teisinga

Dar prieš dešimt metų dirbtinis intelektas daugeliui atrodė kaip mokslinės fantastikos reikalas – kažkas iš Terminatoriaus ar Matricos pasaulio. Šiandien algoritmai sprendžia, ar gausite paskolą, ar jūsų CV pasieks žmogaus akis, ar jūsų vaikas bus laikomas rizikos grupės mokiniu. Ir čia prasideda tikroji problema – ne ta, kurią rodo Holivudas, o kur kas subtilesnė ir pavojingesnė.

Dirbtinio intelekto etika nėra tik akademinis klausimas, kurį aptarinėja filosofai konferencijų salėse. Tai kasdienybė, kuri jau dabar paliečia milijonus žmonių – dažnai net nežinančių, kad kažkoks algoritmas priėmė sprendimą jų atžvilgiu. Ir būtent todėl apie tai verta kalbėti garsiai, konkrečiai ir be pagražinimų.

Šališkumas, kurį sukūrėme patys

Vienas iš labiausiai dokumentuotų dirbtinio intelekto problemų – vadinamasis algoritminis šališkumas. Skamba techniškai, bet esmė paprasta: jei mašiną moki ant žmonių sukurtų duomenų, ji išmoksta ir žmonių šališkumų. Ir kartais net juos sustiprina.

Garsiausias pavyzdys – JAV teismuose naudota sistema COMPAS, kuri turėjo prognozuoti, ar asmuo vėl nusikals. Tyrimas parodė, kad sistema juodaodžius asmenis klaidingai žymėjo kaip aukštos rizikos beveik dvigubai dažniau nei baltaodžius. Sistema nebuvo programuota būti rasistinė – ji tiesiog išmoko iš istorinių duomenų, kuriuose buvo įrašyta dešimtmečių sisteminė diskriminacija.

Panašių atvejų yra ir Europoje. Nyderlanduose valdžios institucijos naudojo algoritmą, kuris identifikavo šeimas kaip potencialias socialinių išmokų sukčiauves. Vėliau paaiškėjo, kad sistema neproporcingas dėmesį skyrė imigrantų kilmės šeimoms. Skandalas baigėsi vyriausybės atsistatydinimu.

Ką tai reiškia praktiškai? Jei jums buvo atsisakyta paskolos, darbo ar kokios nors paslaugos, ir jūs nežinote kodėl – galbūt sprendimą priėmė algoritmas. Europos Sąjungos Bendrasis duomenų apsaugos reglamentas (BDAR) suteikia teisę reikalauti paaiškinimo, kai sprendimas priimamas automatizuotai. Naudokitės šia teise. Rašykite užklausas, reikalaukite atsakymų.

Skaidrumas – žodis, kurį visi vartoja, bet mažai kas supranta

Kalbant apie dirbtinio intelekto etiką, skaidrumas minimas beveik kaip mantra. Bet ką tai iš tikrųjų reiškia? Ar pakanka, kad įmonė paskelbtų, jog naudoja AI? Ar reikia, kad kiekvienas pilietis galėtų perskaityti algoritmo kodą?

Realybė tokia, kad daugelis šiuolaikinių AI sistemų – ypač giluminio mokymosi modeliai – yra vadinamosios „juodosios dėžės”. Net jų kūrėjai ne visada gali tiksliai paaiškinti, kodėl sistema priėmė vieną ar kitą sprendimą. Tai kelia fundamentalų klausimą: kaip galime pasitikėti sistema, kurios veikimo logikos patys nesuprantame?

Yra du skirtingi skaidrumo lygiai, kuriuos verta atskirti. Pirmasis – procedūrinis skaidrumas: žinome, kad sistema naudojama, žinome, kokius duomenis ji naudoja. Antrasis – algoritminis skaidrumas: suprantame, kaip sistema priima sprendimus. Dauguma įmonių šiandien siūlo tik pirmąjį, o antrasis lieka komercinė paslaptis.

Europos Sąjunga su savo Dirbtinio intelekto aktu bando šią problemą spręsti teisiškai – aukštos rizikos AI sistemoms reikalaujama dokumentacijos, auditų, žmogaus priežiūros. Tai žingsnis teisinga kryptimi, nors kritikai teigia, kad įstatymas vis dar per daug lankstus ir pilnas spragų.

Privatumas epochoje, kai duomenys yra naujasis auksas

Dirbtinis intelektas yra alkanas – jam reikia duomenų, ir kuo daugiau, tuo geriau. Šis alkis sukūrė visą ekonomiką, kurioje jūsų elgesys internete, jūsų pirkiniai, jūsų vieta, jūsų pokalbiai tampa žaliava, iš kurios kuriami modeliai ir gaunamas pelnas.

Problema ta, kad dauguma žmonių nesupranta, kiek informacijos apie juos yra surinkta. Kai naudojate nemokamą programėlę, mokate duomenimis. Kai kalbate su išmaniuoju garsiakalbiu namuose, jūsų pokalbiai gali būti analizuojami. Kai vaikštote pro parduotuvę su veido atpažinimo kameromis – jūsų buvimas užfiksuojamas.

Čia atsiranda esminis etinis klausimas: ar sutikimas, kurį davėte spausdami „Sutinku su sąlygomis” ant 47 puslapių dokumento, kurį niekas neskaito, yra tikras sutikimas? Dauguma teisininkų ir etikos specialistų atsakytų – ne.

Keletas praktinių patarimų, kaip apsaugoti savo privatumą:

  • Reguliariai peržiūrėkite, kokioms programėlėms suteikėte prieigą prie savo duomenų – telefono nustatymuose tai padaryti nesudėtinga
  • Naudokite privatumo orientuotas paieškos sistemas kaip DuckDuckGo ar Brave
  • Europos gyventojai gali pasinaudoti BDAR teise ir paprašyti įmonių ištrinti jų duomenis
  • Apsvarstykite VPN naudojimą, ypač prisijungiant prie viešų Wi-Fi tinklų
  • Kai įmanoma, rinktis mokamas paslaugas vietoj nemokamų – jei nemoki pinigais, moki duomenimis

Atsakomybės klausimas: kai kažkas nueina ne taip, kas kaltas?

Įsivaizduokite tokią situaciją: autonominis automobilis sukelia avariją ir žmogus žūsta. Kas atsakingas? Automobilio gamintojas? Programinės įrangos kūrėjas? Savininkas? O gal pats algoritmas – tik jis juk neturi nei turto, nei laisvės, kurią būtų galima atimti.

Tai nėra hipotetinis klausimas. Jau buvo atvejų, kai autonominiai automobiliai sužalojo žmones, kai medicininiai AI algoritmai rekomendavo netinkamą gydymą, kai finansiniai algoritmai sukėlė rinkos suirutę. Ir kiekvieną kartą atsakomybės klausimas lieka neaiškus.

Tradicinė teisinė sistema yra sukurta žmonių atsakomybei. Mes turime baudžiamąją atsakomybę, civilinę atsakomybę, korporatyvinę atsakomybę. Bet kai sprendimą priima algoritmas, kuris mokėsi iš duomenų, kurių niekas konkrečiai nerinko, pagal taisykles, kurių niekas konkrečiai nesuformulavo – tradiciniai atsakomybės modeliai tiesiog neveikia.

Kai kurios šalys eksperimentuoja su „AI atsakomybės” koncepcijomis. Europos Komisija pasiūlė direktyvą, kuri palengvintų žalos atlyginimo reikalavimus AI sistemų aukoms. Bet iki realaus teisinio aiškumo dar toli.

Tuo tarpu praktinis patarimas tiems, kurie mano, kad AI sistema jiems padarė žalą: dokumentuokite viską. Saugokite ekrano kopijas, laiškus, sprendimų pranešimus. Kreipkitės į vartotojų teisių organizacijas. Europos Sąjungoje veikia nacionaliniai duomenų apsaugos organai, kuriems galima skųstis dėl automatizuotų sprendimų.

Darbo rinka ir klausimas, kurio niekas nenori garsiai užduoti

Ekonomistai ginčijasi, ar dirbtinis intelektas sukurs daugiau darbo vietų, nei sunaikins. Optimistai kalba apie naujų profesijų atsiradimą, pesimistai – apie masinio nedarbo bangą. Tiesa, kaip dažnai būna, greičiausiai kažkur per vidurį.

Bet etinis klausimas čia ne tik ekonominis. Jei algoritmai perima tam tikras funkcijas, ar tai reiškia, kad žmonės, kurie tą darbą dirbo, yra mažiau vertingi? Kaip visuomenė turėtų elgtis su tais, kurių įgūdžiai tampa nebereikalingi ne dėl jų kaltės, o dėl technologijų pažangos?

Yra ir kitas aspektas – darbo kokybė. Sandėlių darbuotojai, kurių veiklą stebi algoritmai, praneša apie didžiulį spaudimą, nesugebėjimą net į tualetą nueiti laiku, nes sistema fiksuoja kiekvieną minutę. Tai ne ateities distopija – tai šiandieninė realybė daugelyje Amazon ar panašių įmonių sandėlių.

Etiškas AI naudojimas darbo aplinkoje turėtų reiškti, kad technologijos padeda žmonėms, o ne juos kontroliuoja ar žemina. Deja, kol verslo modeliai orientuoti į maksimalų efektyvumą, ši riba dažnai peržengama.

Karas, ginklai ir autonominiai žudikai

Galbūt pati nerimą kelianti dirbtinio intelekto etikos sritis – karinės technologijos. Autonominiai ginklų sistemos, vadinamos „robotais žudikais”, jau nėra mokslinė fantastika. Drono, kuris savarankiškai identifikuoja ir naikina taikinius be žmogaus sprendimo, technologijos egzistuoja.

Tarptautinė humanitarinė teisė reikalauja, kad karo veiksmai būtų proporcionalūs, kad būtų atskirti kombatantai nuo civilių, kad sprendimai būtų priimami su tinkamu vertinimu. Ar algoritmas gali tai padaryti? Ar jis gali suprasti kontekstą, emocijas, sudėtingas situacijas, kuriose net patyrę kariai klysta?

Daugiau nei šimtas šalių ir tūkstančiai mokslininkų, tarp jų ir Stepheenas Hawkingas bei Elonas Muskas, pasirašė peticijas ir laiškus reikalaujančius uždrausti autonominius ginklus. Tačiau didžiosios karinės galybės – JAV, Rusija, Kinija – šias diskusijas ignoruoja arba aktyviai blokuoja tarptautinius susitarimus.

Tai galbūt geriausias pavyzdys, kodėl dirbtinio intelekto etika negali būti palikta tik rinkos jėgoms ar atskirų valstybių sprendimams. Kai technologijos pasiekia tokį lygį, reikia globalaus reguliavimo – panašiai kaip cheminiai ar biologiniai ginklai yra draudžiami tarptautinėmis konvencijomis.

Rytoj jau prasidėjo – ką galime padaryti šiandien

Lengva nuleisti rankas ir sakyti, kad viskas per didelė, per sudėtinga, per daug technologiška, kad eilinis žmogus galėtų ką nors pakeisti. Bet tai neteisinga. Dirbtinio intelekto etika formuojasi dabar, ir kiekvienas gali prie to prisidėti.

Vartotojų sprendimas turi reikšmės. Įmonės, kurios naudoja neskaidrius algoritmus, diskriminuoja vartotojus ar piktnaudžiauja duomenimis, turėtų jausti rinkos spaudimą. Rinkitės paslaugų teikėjus, kurie aiškiai komunikuoja apie AI naudojimą ir laikosi etikos principų.

Pilietinis aktyvumas taip pat svarbus. ES Dirbtinio intelekto aktas buvo iš dalies suformuotas dėl pilietinės visuomenės organizacijų spaudimo. Rašykite savo Europos Parlamento nariams, palaikykite organizacijas, kurios kovoja už skaidrų ir atsakingą AI naudojimą – tokias kaip AlgorithmWatch ar Access Now.

Švietimas – galbūt svarbiausia ilgalaikė priemonė. Vaikai, kurie šiandien mokosi mokyklose, gyvens pasaulyje, kuriame AI bus dar labiau integruotas į kasdienybę. Kritinis mąstymas apie technologijas, supratimas, kaip algoritmai veikia, gebėjimas atpažinti manipuliaciją – tai įgūdžiai, kurie taps tokie pat svarbūs kaip skaitymas ar matematika.

Ir galiausiai – kalbėkite apie tai. Su draugais, šeima, kolegomis. Dirbtinio intelekto etika nėra tik technologų ar politikų reikalas. Tai klausimas apie tai, kokioje visuomenėje norime gyventi, kokias vertybes norime įkodinti į sistemas, kurios vis labiau formuoja mūsų gyvenimus. Šis pokalbis turi vykti viešai, garsiai ir be baimės. Nes mašinos mokosi iš mūsų – ir mes turime nuspręsti, ko jas mokyti.

Parašykite komentarą