Mākslīgā intelekta izmantošanu Eiropas Savienībā noteiks Mākslīgā intelekta akts
Mākslīgā intelekta izmantošanu Eiropas Savienībā noteiks Mākslīgā intelekta akts
Digitālās pārveides ietvaros Eiropas Savienība vēlas regulēt mākslīgo intelektu (MI), lai radītu labākus apstākļus šīs novatoriskās tehnoloģijas attīstībai un izmantošanai. MI spēj uzlabot veselības aprūpi un padarīt transportlīdzekļus drošākus un dabai draudzīgākus, kā arī paaugstināt ražošanas procesu efektivitāti un nodrošināt lētākus un ilgtspējīgākus enerģijas avotus.
2021. gada aprīlī Eiropas Komisija ierosināja pirmo ES normatīvo regulējumu par mākslīgo intelektu. Tajā norādīts, ka MI sistēmas, kuras var izmantot dažādās lietojumprogrammās, jāanalizē un jāiedala atbilstoši riskam, ko tās rada lietotājiem. Noteikumi, kas MI tehnoloģijām jāievēro, atšķirsies atkarībā no katras tehnoloģijas riska līmeņa. Pēc noteikumu apstiprināšanas tie kļūs par pasaulē pirmo MI regulu.
Uzzini vairāk par to, kas ir mākslīgais intelekts un kur to izmanto.
Ko Parlaments vēlas MI tiesību aktos
Parlamenta prioritāte ir nodrošināt, lai Eiropas Savienībā izmantotās mākslīgā intelekta sistēmas būtu drošas, pārredzamas, izsekojamas, nediskriminējošas un videi draudzīgas. Lai novērstu kaitīgas sekas, MI sistēmas ir jāpārrauga cilvēkiem, nevis datorprogrammām.
Parlaments arī vēlas izveidot tehnoloģiski neitrālu, vienotu definīciju terminam “mākslīgais intelekts”, ko varētu piemērot arī nākotnes MI sistēmām.
Uzzini vairāk par Parlamenta ierosinātajiem MI noteikumiem un vīziju par MI nākotni.
MI akts: dažādi noteikumi dažādiem riska līmeņiem
Jaunie noteikumi izvirza pienākumus pakalpojumu sniedzējiem un lietotājiem atkarībā no MI radītā riska līmeņa. Lai gan daudzu mākslīgā intelekta sistēmu radītais risks ir minimāls, tās ir sistemātiski jāizvērtē.
Nepieņemama riska līmenis
MI sistēmām tiks noteikts nepieņemama riska līmenis, ja tiks uzskatīts, ka tās tieši apdraud cilvēkus. Šādas sistēmas tiks aizliegtas. Zemāk sniegti nepieņemama riska līmeņa sistēmu piemēri:
- cilvēku un it īpaši noteiktu neaizsargātu grupu kognitīvo uzvedību manipulējošas sistēmas, piemēram, ar balsi aktivizējamas rotaļlietas, kas bērnos veicina bīstamu uzvedību;
- “sociālo reitingu” sistēmas, proti, cilvēku klasificēšana, pamatojoties uz uzvedību, sociāli ekonomisko stāvokli vai personiskajām īpašībām;
- reāllaika un attālinātās biometriskās identifikācijas sistēmas, piemēram, seju atpazīšana.
Noteikumos iekļauti daži izņēmumi. Piemēram, smagu kriminālnoziegumu izpētē pēc tiesas apstiprinājuma būs iespējams izmantot “pagātnes” attālinātās biometriskās identifikācijas sistēmas, lai identificētu cilvēkus ievērojamu laiku pēc kriminālnozieguma.
Augsta riska līmenis
MI sistēmām, kas negatīvi ietekmē drošību vai pamattiesības, tiks noteikts augsta riska līmenis. Tās tiks iedalītas divās kategorijās:
1) MI sistēmas, ko izmanto produktos, uz kuriem attiecas ES tiesību akti par produktu drošību, piemēram, rotaļlietas, ar aviāciju saistītie produkti, automašīnas, medicīniskās ierīces un lifti.
2) MI sistēmas, kas ietilpst astoņās noteiktās jomās, kuras būs jāreģistrē ES datubāzē:
- fizisku personu biometriskā identifikācija un iedalīšana kategorijās;
- kritiskās infrastruktūras vadība un darbība;
- izglītība un profesionālā apmācība;
- nodarbinātība, darbinieku vadība un piekļuve pašnodarbinātībai;
- piekļuve būtiskiem privātiem un sabiedriskiem pakalpojumiem un priekšrocībām;
- tiesībaizsardzība;
- migrācijas, patvēruma un robežkontroles pārvaldība;
- palīdzība tiesību aktu juridiskajā interpretācijā un piemērošanā.
Visas augsta riska MI sistēmas tiks novērtētas pirms laišanas tirgū, kā arī atkārtoti vērtētas visa to dzīves cikla laikā.
Ģeneratīvais MI
Ģeneratīvajam MI, piemēram, ChatGPT, būtu jāatbilst pārredzamības prasībām:
- jāatklāj tas, ka saturu ir radījis MI;
- jāizstrādā modelis, lai novērstu nelegāla satura radīšanu;
- jāpublicē MI apmācībai izmantoto ar autortiesībām aizsargāto datu kopsavilkums.
Ierobežota riska līmenis
Ierobežota riska MI sistēmām būtu jāatbilst minimālām pārredzamības prasībām, kas ļautu lietotājiem pieņemt pamatotus lēmumus. Pēc saskarsmes ar lietojumprogrammu tās lietotājs var izlemt, vai turpināt programmas izmantošanu. Lietotājiem jābūt informētiem par savu saskarsmi ar mākslīgo intelektu, it īpaši ar mākslīgā intelekta sistēmām, kas ģenerē attēlus, audio vai video saturu un manipulē ar tiem, piemēram, deepfakes.
Turpmākie soļi
2023. gada 14. jūnijā Eiropas Parlamenta deputāti pieņēma savu nostāju sarunām par MI aktu. Parlaments uzsāks sarunas ar ES dalībvalstīm Padomē par likuma galīgo redakciju. Sarunu mērķis ir panākt vienošanos līdz šī gada beigām.
Mākslīgā intelekta akts (angļu valodā) pieejams ŠEIT.