Inteligjence artificiale
Akti i AI-së me rëndësi globale duhet të njohë ata që preken nga AI

Instituti Ada Lovelace është një institut i pavarur kërkimor, me bazë në
MB dhe Brukseli, me një mision për të siguruar që të dhënat dhe AI të punojnë për njerëzit
dhe shoqërisë.
Duke përqendruar ata që preken nga AI, Ada rekomandon ruajtjen e të drejtave ligjore
për ankesë dhe veprim kolektiv dhe për t'i dhënë zë shoqërisë civile
brenda përcaktimit të standardeve.
Ada rekomandon zgjerimin dhe riformësimin e rolit të rrezikut në Akt.
Rreziku duhet të bazohet në qëllimin e 'arsyeshëm të parashikueshëm' dhe të zgjerohet
përtej të drejtave dhe sigurisë individuale, për të përfshirë edhe sistematike dhe
rreziqet mjedisore. *
Instituti Ada Lovelace, ka publikuar sot një sërë ndryshimesh të propozuara për
Akti i AI i BE-së që synon njohjen dhe fuqizimin e atyre që preken nga AI,
duke zgjeruar dhe riformuar kuptimin e 'rrezikut' dhe duke pasqyruar saktë
natyra e sistemeve të AI dhe cikli i jetës së tyre.
Si përpjekja e parë gjithëpërfshirëse në botë për të rregulluar AI, Akti ka
potencialin për t'u bërë një standard global në rregullimin e AI dhe të shërbejë
si frymëzim për nisma të tjera legjislative në mbarë botën.
Ada rekomandon fuqizimin e njerëzve duke ndërtuar 'persona të prekur' në
Të veprojnë dhe të sigurojnë të drejtat e tyre ligjore për ankimim dhe veprim kolektiv.
Zëri i shoqërisë civile duhet të rritet gjithashtu duke ndërtuar
përfaqësimi i organizatave të shoqërisë civile në BE
procesi i përcaktimit të standardeve, i cili deri më sot është dashur të trajtojë më tepër teknikën
sesa çështjet shoqërore.
Rreziku përbën themelin e Aktit të AI dhe Ada po propozon ndryshime në
si përcaktohet rreziku në ligj ashtu edhe për kategoritë e tij të rrezikut. Të
amendamentet rekomandojnë krijimin e një procesi për shtimin e llojeve të reja të AI
listën e 'rrezik të lartë' dhe vlerësimin e rrezikut bazuar në 'në mënyrë të arsyeshme
qëllimi i parashikueshëm' i sistemeve të AI, në vend të 'qëllimit të synuar' të tyre.
Kategorizimi biometrik dhe njohja e emocioneve duhet t'i shtohen
listën e 'rrezikut të papranueshëm' në nenin 5. Nëse do të paraqiteshin prova
demonstrojnë përfitimet e këtyre teknologjive, Ada thotë se ato duhet të kalojnë një
'test proporcionaliteti i përforcuar', dhe nëse e kalojnë këtë, përdoret vetëm në
rrethana të jashtëzakonshme.
Rreziku është kuptuar kryesisht në Akt për sa i përket rreziqeve të sistemeve të AI
ndaj të drejtave dhe sigurisë individuale. Megjithatë, Ada argumenton se ligji duhet
përfshijnë rreziqe më të gjera sistemike dhe mjedisore, të cilat thjesht nuk mund të jenë
kuptohet në termat e rreziqeve për individët.
Themelore për efektivitetin e ligjit është shkalla në të cilën ai
kap natyrën e sistemeve komplekse dhe të adaptueshme të AI siç përdoren
praktikë. Disa nga rekomandimet e Adës synojnë të sigurojnë që
Veprimi reflekton në mënyrë të përshtatshme dhe lidhet me realitetin se si janë sistemet e AI
zhvilluar, dislokuar dhe përshtatur.
Për shembull, sipas propozimeve aktuale, sistemet me rrezik të lartë përballen vetëm me *sh
kërkesat ante *, që do të thotë se ato zbatohen në sistemet e AI përpara vendosjes.
Kjo pasqyron një qasje të sigurisë së produktit ndaj AI, e cila nuk arrin të përcaktojë se si
Sistemet e AI janë përdorur në botë. Për të adresuar këtë Ada rekomandon që të gjithë
Sistemet me rrezik të lartë i nënshtrohen "vlerësimeve të ndikimit" të rregullt *ex post*.
*Alexandru Circiumaru, Drejtues i Politikave Publike Evropiane, tha: *
*'Rregullimi i AI është një sfidë e vështirë ligjore, kështu që BE-ja duhet të jetë
përgëzoj që ishe i pari që doli me një gjithëpërfshirës
kornizë.*
*'Megjithatë, propozimet aktuale mund dhe duhet të përmirësohen, dhe ka
një mundësi për politikëbërësit e BE-së për të forcuar ndjeshëm fushëveprimin
dhe efektivitetin e këtij legjislacioni historik.*
*'Duam të shohim ndryshime në ligj që njohin ata që preken nga AI
sistemet, zgjerojnë konceptin e BE-së për 'rrezikun' dhe merren me realitetin e AI,
e cila nuk mund të rregullohet si produkt apo shërbim në mënyrë tradicionale
kuptim.'*
*Imogen Parker, Drejtori i Asociuar, tha: *
*'Akti i BE-së për AI, pasi të miratohet, do të jetë IA e parë gjithëpërfshirëse
kuadri rregullator në botë. Kjo e bën atë një rëndësi globale
një pjesë e legjislacionit me ndikim historik shumë përtej ligjit të tij
juridiksionit. *
*'Aksionet për të gjithë janë të larta me AI, prandaj është kaq jetike
BE-ja e merr këtë të drejtë dhe sigurohet që Ligji të funksionojë vërtet për njerëzit dhe
shoqëria.'*
Konferenca e politikave bazohet në një opinion ligjor ekspert të porositur nga
Instituti Ada Lovelace dhe autor nga Profesor Lilian Edwards, një drejtuese
akademike në fushën e së drejtës së internetit, e cila trajton thelbësore
pyetje rreth rregullimit të AI në Evropë dhe vështrimet drejt një globale
standarde.
Ndani këtë artikull:
-
Rusiditë 5 më parë
Si i anashkalon Rusia sanksionet e BE-së për importet e makinerive: rasti i Deutz Fahr
-
Bullgariditë 5 më parë
Turp! Këshilli i Lartë Gjyqësor do t'i presë kokën Geshevit teksa ndodhet në Strasburg për Barcelonagate
-
Rusiditë 3 më parë
Rusia thotë se pengoi një sulm të madh në Ukrainë, por humbi një terren
-
Finlandëditë 4 më parë
Suedia, Turqia dhe Finlanda vendosin për më shumë anëtarësim suedez në NATO