Straipsnio bendraautorės: Louise Malmberg ir Karin Broman

ATSAKOMYBĖS UŽ DIRBTINĮ INTELEKTĄ DIREKTYVA

Technologijoms sparčiai tobulėjant, įstatymų leidėjams tampa sudėtinga neatsilikti. Galutinių naudotojų, įmonių ir teisingumo sistemos požiūriu vis svarbesnis tampa su dirbtiniu intelektu susijęs atsakomybės klausimas.

Dirbtinio intelekto sistemos yra plačiai naudojamos ir, deja, jau pasitaikė atvejų, kai dėl jų naudojimo buvo padaryta žala asmenims. Matėme pavyzdžių, kai naudojant dirbtinio intelekto sistemas, valdžios insititucijos priėmė klaidingus ir neobjektyvius sprendimus dėl socialinės paramos ir socialinės apsaugos išmokų arba bankai – teikdami paskolas, ir šį sąrašą galima tęsti.

ES toliau reguliuojant skaitmeninę rinką ir ekonomiką, buvo pasiūlytas teisės aktas, kuriuo siekiama sustiprinti asmenų, patyrusių žalą dėl dirbtinio intelekto sistemų, teisinę apsaugą.

Kas?

Atsakomybės už dirbtinį intelektą direktyva siekiama nustatyti taisykles dėl nesutartinės civilinės atsakomybės už žalą, padarytą naudojant DI sistemas. Taip siekiama išspręsti su dirbtiniu intelektu susijusių įrodymų pateikimo sunkumus. Todėl direktyva siekia užtikrinti tai, kad pagrįstiems reikalavimams nebūtų kliūčių, susijusių su įrodinėjimo sunkumais, ir kad asmenys turėtų vienodas galimybes gauti kompensaciją už dirbtinio intelekto sukeltą žalą, kaip ir asmenys, patyrę žalą bet kokiu kitu būdu.

Kodėl?

Pagal dabartinius mūsų nacionalinius teisės aktus žalą patyręs asmuo ir (arba) įmonė turi įrodyti, kad asmuo veikė neteisėtai arba neveikė, nors galėjo veikti. Taikant šias sąlygas dirbtiniam intelektui, gali būti be galo sunku įrodyti, ar dirbtinio intelekto sistema veikia savarankiškai, be žmogaus įžvalgų. Dirbtinio intelekto įvestys ir „veiksmai” gali būti net visiškai nematomi nei vartotojui nei kitoms suinteresuotoms šalims – tai vadinamoji dirbtinio intelekto „juodoji dėžė” (angl. black box).

Todėl Atsakomybės už dirbtinį intelektą direktyva siekiama užtikrinti, kad įrodinėjimo sunkumai netrukdytų reikšti pagrįstus reikalavimus.

Kaip?

Du pavyzdžiai, ką siūlo direktyva: 1) suteikti teismams galimybę įpareigoti dirbtinio intelekto paslaugų teikėjus atskleisti įrodymus ir 2) įvesti priežastinio ryšio prezumpciją.

1) Galimybė įpareigoti atskleisti įrodymus.

Direktyvoje siūloma, kad teismas galėtų įpareigoti dirbtinio intelekto sistemos teikėją atskleisti įrodymus apie didelės rizikos dirbtinio intelekto sistemas (pagal Dirbtinio intelekto akte (angl. AI Act) siūlomas rizikos apibrėžtis), kurios, kaip teigiama, padarė žalą. Tai darydami teismai turi apriboti nurodymą iki to, kas būtina ir proporcinga, atsižvelgiant į kitus interesus, pavyzdžiui, komercines paslaptis ir net informaciją, susijusią su valstybės saugumu.

Ne didelės rizikos dirbtinio intelekto sistemoms ši prezumpcija taikoma tik tada, kai teismas nustato, kad ieškovui pernelyg sunku įrodyti atsitiktinį ryšį.

2) Įrodinėjimo pareiga ir priežastinio ryšio prezumpcija.

Kad nukentėję asmenys pagrįstai gautų kompensaciją, direktyvoje siūloma taikyti priežastinio ryšio tarp patirtos žalos ir dirbtinio intelekto sistemos kaltės prezumpciją. Kaltė – tai tam tikras Sąjungos arba nacionalinės teisės, tiesiogiai skirtos apsisaugoti nuo atsiradusios žalos, nesilaikymas ir tai, kad ši kaltė turėjo įtakos dirbtinio intelekto sistemos rezultatams arba kad dirbtinio intelekto sistema nesugebėjo sukurti tokių rezultatų.

Ieškovas vis tiek turi įrodyti, kad patyrė žalą dėl dirbtinio intelekto rezultatų. Tačiau ieškovas neprivalo įrodyti, kad žalą sukėlusi išvestis atsirado dėl dirbtinio intelekto sistemos klaidos, nebent ieškovas galėtų tai įrodyti dėdamas pagrįstas pastangas (pavyzdžiui, prašydamas teismo įpareigoti atskleisti įrodymus).

Supaprastintai tariant, toliau nurodyta sąlyga Nr. 1 yra preziumuojama, jei ieškovas gali įrodyti toliau nurodytą sąlygą Nr. 2.

1) Dirbtinio intelekto sistemos klaida turi įtakos tam tikrai išvesčiai (rezultatui).

2) Dėl dirbtinio intelekto sistemos išvesties atsiranda individuali žala.

Šis teisės aktas vis dar yra tik pasiūlymas, kurį reikia galutinai patvirtinti ir, antra, perkelti į nacionalinę teisę, nes tai yra ES direktyva. Dirbtinio intelekto aktas taip pat dar nepatvirtintas, tačiau tikimasi, kad jis bus priimtas netrukus.

Skirtingai nei Atsakomybės už dirbtinį intelektą direktyva, Dirbtinio intelekto aktas (kai tik bus pradėtas taikyti) bus tiesiogiai taikomas visoje ES ir jo nereikės įgyvendinti nacionaliniu lygmeniu. Tikimasi, kad jis bus galutinai patvirtintas iki 2023 m. pabaigos, o tai reikštų, kad jis bus pradėtas taikyti 2025 m.

Fondia rekomenduoja savo klientams sąmoningai diegti ir (arba) kurti dirbtiniu intelektu grindžiamas priemones ir laikytis holistinio požiūrio, kad būtų išvengta nereikalingos rizikos ar net sankcijų arba žalos atsiradimo.

Fondia Duomenų ir dirbtinio intelekto komanda toliau stebi šios direktyvos ir kitų susijusių reglamentų raidą. Jei turite klausimų ar jums reikia pagalbos, nedvejodami kreipkitės į mus. Susisiekite su mumis | Fondia