Lidhu me ne

teknologji kompjuterike

OASI, motori i parë i kërkimit që gjeti algoritmet që qeveritë dhe kompanitë përdorin për qytetarët

SHARE:

Publikuar

on

Ne përdorim regjistrimin tuaj për të siguruar përmbajtje në mënyrat për të cilat jeni pajtuar dhe për të përmirësuar kuptimin tonë për ju. Mund të çabonohesh në çdo kohë.

  • Krijuar nga Fondacioni Eticas, Observatori i Algoritmeve me Ndikim Social, OASI, mbledh informacion nga dhjetëra algoritme të përdorura nga Administratat Publike dhe kompanitë në të gjithë botën për të mësuar më shumë rreth ndikimit të tyre social.
  • Objektivi është t'i japë publikut akses në informacion si për qeveritë ashtu edhe për algoritmet e kompanive dhe të dijë se kush i përdor ato, kush i zhvillon ato, çfarë kërcënimesh përfaqësojnë dhe nëse janë kontrolluar, ndër karakteristikat e tjera.
  • Paragjykimi dhe diskriminimi i algoritmit zakonisht ndodh në bazë të moshës, gjinisë, racës ose paaftësisë, midis vlerave të tjera, por për shkak të mungesës së përgjithshme të transparencës, ende nuk është e mundur të dihen të gjitha pasojat e tij mbi grupet e prekura.

Fondacioni Eticas, një organizatë jofitimprurëse që promovon përdorimin e përgjegjshëm të algoritmeve dhe sistemeve të Inteligjencës Artificiale (AI), ka krijuar Observatorin e Algoritmeve me Ndikim Social (OASI). Ky Observator prezanton një motor kërkimi për të ditur më shumë për mjetet që marrin vendime të rëndësishme të automatizuara për qytetarët, konsumatorët dhe përdoruesit në të gjithë botën.

Aktualisht, të dy kompanitë dhe Administratat Publike automatizojnë vendimet falë algoritmeve. Megjithatë, zhvillimi dhe vënia në punë e tij nuk ndjek kontrollet e jashtme të cilësisë, as nuk është aq transparente sa duhet, gjë që e lë popullsinë të pambrojtur. Me këtë motor kërkimi, çdokush mund të mësojë më shumë rreth këtyre algoritmeve: kush i ka zhvilluar, kush i përdor ato, fushën e zbatimit të tyre, nëse janë kontrolluar, objektivat e tyre apo ndikimin e tyre social dhe kërcënimet që ato përfaqësojnë.

Në këtë moment, OASI mbledh 57 algoritme, por pret të arrijë në 100 në muajt në vijim. Midis tyre, 24 janë duke u aplikuar tashmë në SHBA nga Qeveria dhe kompanitë Big Tech. Për shembull, ShotSpotter, një mjet algoritmi i vendosur nga Departamenti i Policisë në Oakland për të luftuar dhe zvogëluar dhunën me armë përmes mikrofonëve të monitorimit të zërit, dhe një algoritëm për të parashikuar abuzimin dhe neglizhimin e mundshëm të fëmijëve të përdorur nga Qarku Allegheny, Pensilvani. Një shembull tjetër nga një korporatë është Rekognition, sistemi i njohjes së fytyrës i Amazon, i cili u kontrollua nga MIT Media Lab në fillim të vitit 2019, dhe u zbulua se performonte shumë më keq kur identifikonte gjininë e një individi nëse ata ishin femra ose me lëkurë të errët.

Diskriminimi më i zakonshëm është për shkak të moshës, gjinisë, racës ose paaftësisë, prodhuar pa dashje nga zhvilluesit të cilëve u mungojnë aftësitë socio -ekonomike për të kuptuar ndikimin e kësaj teknologjie. Në këtë kuptim, këta inxhinierë hartojnë algoritmet bazuar vetëm në aftësitë teknike, dhe meqenëse nuk ka kontrolle të jashtme dhe duket se po funksionon siç pritej, algoritmi vazhdon të mësojë nga të dhënat e mangëta.

Duke pasur parasysh mungesën e transparencës në lidhje me funksionimin e disa prej këtyre algoritmeve, Fondacioni Eticas, përveç fillimit të OASI, po zhvillon një projekt të auditimeve të jashtme. E para është VioGén, algoritmi i përdorur nga Ministria e Brendshme Spanjolle për të caktuar rrezik për gratë që kërkojnë mbrojtje pas vuajtjes së rasteve të dhunës në familje. Eticas do të kryejë një auditim të jashtëm përmes inxhinierisë së kundërt dhe të dhënave administrative, intervistave, raporteve ose skenarëve të projektimit, për të mbledhur rezultate në shkallë. E gjithë kjo me qëllim zbulimin e mundësive për përmirësim të mbrojtjes së këtyre grave.

"Pavarësisht nga ekzistenca e metodave algoritmike të kontrollit dhe auditimit për të siguruar që teknologjia respekton rregulloret aktuale dhe të drejtat themelore, Administrata dhe shumë kompani vazhdojnë të bëjnë një vesh të shurdhër ndaj kërkesave për transparencë nga qytetarët dhe institucionet," deklaroi Gemma Galdon, themeluese e Fondacionit Eticas Me "Përveç OASI, pas disa vitesh në të cilat ne kemi zhvilluar më shumë se një duzinë auditimesh për kompani të tilla si Alpha Telefónica, Kombet e Bashkuara, Koa Health ose Banka Ndër-Amerikane e Zhvillimit, ne kemi botuar gjithashtu një Udhëzues për Auditimin Algoritmik kështu që çdokush mund t'i kryejë ato. Objektivi është gjithmonë ngritja e vetëdijes, sigurimi i transparencës dhe rivendosja e besimit në teknologji, e cila në vetvete nuk ka pse të jetë e dëmshme. "

Në këtë kuptim, algoritmet që janë trajnuar me teknika të mësimit të makinerisë duke përdorur një sasi të madhe të të dhënave historike për t'i "mësuar" ata të zgjedhin bazuar në vendimet e kaluara. Zakonisht këto të dhëna nuk janë përfaqësuese të realitetit socio -ekonomik dhe kulturor në të cilin ato aplikohen, por në shumë raste ato pasqyrojnë një situatë të padrejtë e cila nuk synohet të përjetësohet. Në këtë mënyrë, algoritmi teknikisht do të merrte vendime "korrekte" sipas trajnimit të tij, edhe pse realiteti është se rekomandimet ose parashikimet e tij janë të njëanshme ose diskriminuese.

reklamë

Rreth Fondacionit Eticas

Fondacioni Eticas punon për të përkthyer në specifikime teknike parimet që udhëheqin shoqërinë, siç janë mundësitë e barabarta, transparenca dhe mosdiskriminimi të cilat janë në teknologjitë që marrin vendime të automatizuara për jetën tonë. Kërkon një ekuilibër midis ndryshimit të vlerave shoqërore, mundësive teknike të përparimeve të fundit dhe kuadrit ligjor. Për këtë qëllim, ai kontrollon algoritmet, verifikon se garancitë ligjore zbatohen në botën dixhitale, veçanërisht në Inteligjencën Artificiale, dhe kryen punë intensive për të rritur ndërgjegjësimin dhe përhapur nevojën për teknologji të përgjegjshme dhe cilësore.

Ndani këtë artikull:

EU Reporter publikon artikuj nga një shumëllojshmëri burimesh të jashtme të cilat shprehin një gamë të gjerë pikëpamjesh. Qëndrimet e marra në këta artikuj nuk janë domosdoshmërisht ato të EU Reporter.

Trending