Në vitin 2023, Mira Murati nga OpenAI e pushtoi botën me ChatGPT-në mahnitës dhe asgjë nuk është më e njëjtë.

 Linda Baleta

 Shfaqja e teknologjisë së Inteligjencës Artificiale (IA) ka shkaktuar edhe shqetësime, duke filluar nga shqetësimet për privatësinë e deri te ato për sigurinë, automatizimin e vendeve të punës, keqinformimin dhe manipulimin, madje edhe për dilemat etike, paragjykimet dhe diskriminimin.

 Thuhet se është programuesja e parë kompjuterike. Ada Lovelace, e lindur në 1815, ka hapur shtigje për gratë në teknologji. Në vitin 2023, Mira Murati nga OpenAI e pushtoi botën me ChatGPT-në mahnitës dhe asgjë nuk është më e njëjtë. Ndërmjet tyre, gra dhe burra – emra të njohur ose të panjohur – kanë kontribuar për dhe ndryshuar botën e teknologjisë.

Shfaqja e teknologjisë së Inteligjencës Artificiale (IA) ka shkaktuar edhe shqetësime, duke filluar nga shqetësimet për privatësinë e deri te ato për sigurinë, automatizimin e vendeve të punës, keqinformimin dhe manipulimin, madje edhe për dilemat etike, paragjykimet dhe diskriminimin. Në fund të fundit, IA së pari është projektuar dhe programuar nga njerëzit – të cilët gjithashtu e ushqejnë me informacion. Pra, rrjedh se IA “trashëgon” gamën e paragjykimeve që kanë njerëzit, për të rikthyer informacion që bazohet në paragjykime të tilla njerëzore.

Duke qenë se zhvillimi i teknologjive të IA dominohet nga një grup heterogjen, ai ngre shqetësime se algoritme të njëanshme që prodhojnë të dhëna të njëanshme rezultojnë në perspektiva të ngushta që përjashtojnë përvojën e popullatës së larmishme mbarëbotërore, duke përjetësuar më tej diskriminimin.

Cilat janë implikimet, veçanërisht nga perspektiva gjinore? A i përforcon dhe përtërin IA stereotipet gjinore?

Duke nisur me më të qartën – algoritmet. Sistemet e IA ushqehen me sasi të mëdha të dhënash. Nëse këto të dhëna pasqyrojnë paragjykime gjinore, algoritmet do të vazhdojnë të përjetësojnë ato paragjykime. Kohët e fundit kam marrë pjesë në një diskutim sesi të dhënat e njëanshme në aspektin gjinor në sektorin e kujdesit shëndetësor mund të ndikojnë në saktësinë dhe efektivitetin e diagnostikimit dhe çojnë në trajtim joadekuat të grave. Kështu, duke ndikuar drejtpërdrejt në cilësinë e jetës dhe madje edhe në jetëgjatësinë e grave.

Çështja duket se shkon më tej sesa thjesht të kesh algoritme të njëanshme që disavantazhojnë gratë. Po gratë nga komunitetet e nënpërfaqësuara? Po grupet e tjera që jetojnë në margjinat e shoqërisë? Po individët që nuk i përkasin një grupi të caktuar atributesh? Si vazhdon IA të krijojë një botë që ndikon në të drejtat e tyre thelbësore të njeriut?

Ekziston një përgjigje ndaj çdo sfide dhe sfida që i paraqitet njerëzimit nga algoritmet me paragjykim të IA mund të trajtohet në më shumë se një mënyrë.

Perspektivat homogjene që kontribuojnë në të dhëna mund të trajtohen duke siguruar më shumë diversitet në ekipet e IA dhe në origjinën e të dhënave që regjistrohen. Gjithëpërfshirja më e madhe rreth tryezave ku merren vendimet dhe ku ndodh zhvillimi i teknologjisë është po aq e rëndësishme.

Është thelbësore të promovohet pjesëmarrja e grave dhe e grupeve të tjera të margjinalizuara në botën e IA, si edhe të zhvillohen procese që sigurojnë llogaridhënien në lidhje me të dhënat. Procese të tilla do të ishin më relevante dhe më kuptimplote kur zhvillohen përmes angazhimit dhe pjesëmarrjes publike.

Konsideratat etike të integruara në praktikat e zhvillimit të IA mundësojnë korniza të përgjegjshme të IA që mund të ndihmojnë në adresimin e shqetësimeve që rrjedhin nga paragjykimet e pranishme në sistemet e IA. Qëllimi duhet të jetë të sigurohet që teknologjia të funksionojë për mundësi dhe të drejta të barabarta për të gjithë – qoftë në formën tonë njerëzore apo digjitale.

 

Linda Baleta, komunikim dhe avokim; promovuese e dinjitetit njerëzor