Во 2023 година, Мира Мурати од OpenAI го освои светот со фасцинантниот ChatGPT и ништо повеќе не е исто

Линда Балета

Подемот на технологијата за вештачка интелигенција (ВИ) предизвика и загриженост, почнувајќи од загриженост за приватноста до зависност од безбедноста, автоматизација на работните места, дезинформации и манипулации, дури и етички дилеми и пристрасна дискриминација.

Се вели дека таа е првиот компјутерски програмер. Ада Лавлејс, родена во 1815 година, беше пионер која остави наследство за жените во технологијата. Во 2023 година, Мира Мурати од OpenAI го освои светот со фасцинантниот ChatGPT и ништо повеќе не е исто. Во меѓувреме, жени и мажи – имиња познати или непознати – придонесуваа и го променија технолошкиот свет.

Подемот на технологијата за вештачка интелигенција (ВИ) предизвика и загриженост, почнувајќи од загриженост за приватноста до зависност од безбедноста, автоматизација на работните места, дезинформации и манипулации, дури и етички дилеми и пристрасна дискриминација. Најпосле, вештачката интелигенција првично беше дизајнирана и програмирана од луѓе – кои исто така ја хранат со информации. Значи, следува дека вештачката интелигенција го „наследува“ опсегот на предрасуди што ги поседуваат луѓето, за да врати информации што се засноваат на таквите човечки предрасуди.

Имајќи предвид дека развојот на технологиите за вештачка интелигенција е доминиран од хетерогена група, тоа предизвикува загриженост дека пристрасните податоци што произведуваат пристрасни алгоритми резултираат со тесни перспективи кои го исклучуваат искуството на разновидната светска популација, со што дополнително ја продолжуваат дискриминацијата.

Кои се импликациите, особено од родова перспектива? Дали вештачката интелигенција ги зајакнува и засилува родовите стереотипи?

Да почнеме од очигледното – алгоритмите. Системите за вештачка интелигенција се хранат со огромни количини на податоци. Ако тие податоци ја одразуваат родовата пристрасност, алгоритмите ќе продолжат да ги повторуваат предрасудите. Неодамна присуствував на дискусија за тоа како родовите пристрасни податоци за здравствената заштита можат да влијаат на точноста и ефективноста на дијагностицирањето и да доведат до несоодветен третман на жените. Тоа директно влијае на квалитетот на животот на жените, па дури и на долговечноста.

Се чини дека проблемот оди подалеку од тоа дека пристрасните алгоритми ги ставаат жените во неповолна положба. Што е со жените од недоволно застапените заедници? Што е со другите групи кои живеат на маргините на општеството? Што е со поединците кои не се припишуваат кон збир од атрибути? Како вештачката интелигенција продолжува да дизајнира свет кој влијае на нивните неотуѓиви човекови права?

Постои одговор за секој предизвик, а предизвикот што му се поставува на човештвото со пристрасни алгоритми за вештачка интелигенција може да се реши на повеќе од еден начин.

Хомогените перспективи кои придонесуваат за податоци може да се решат со обезбедување поголема разновидност во тимовите за вештачка интелигенција и потеклото на податоците што се внесени. Негувањето на поголема инклузивност околу масата каде што се донесуваат одлуки и каде се одвива технолошкиот развој е подеднакво важно.

Од клучно значење е да се промовира учеството на жените и другите маргинализирани групи во светот на вештачката интелигенција. Исто така, клучно е да се развијат процеси кои обезбедуваат одговорност поврзана со податоците. Таквите процеси би биле порелевантни и позначајни кога би се развивале преку јавен ангажман и учество.

Етичките размислувања интегрирани во практиките за развој на вештачка интелигенција овозможуваат одговорни рамки за вештачката интелигенција кои можат да помогнат во решавањето на грижите што произлегуваат од пристрасноста присутна во системите за вештачка интелигенција. Целта треба да биде сигурност дека технологијата работи кон еднакви можности и права за сите – без разлика дали во нашата човечка или дигитална форма.

 

Линда Балета, стратег за комуникации и застапување; промотор на човечкото достоинство