ChatGPT не е создаден за правни цели и, оттука, можеби не е најдобриот студент по право за да се вработи како практикант во адвокатска канцеларија.

Бојана Ковач

Откако четбот со вештачка интелигенција, ChatGPT, се појави за прв пат во судски случај (во граѓанска парница во Колумбија во февруари 2023 година), каде што судијата го консултираше во врска со неговата одлука, правниот свет почна да ги доведува во прашање правните вештини на четботот. Набрзо потоа, ова стана жешка тема во САД, каде што адвокат од Њујорк користел лажни информации при поднесување на случај, произведени од ChatGPT. Во суштина, адвокатот го користел ChatGPT за да наведе претходни случаи како приоритет во брифингот со цел да напредува со случајот. Но, овие случаи не постојат; ChatGPT произвел лажни информации за кои адвокатот не бил свесен, поради што тој и неговата адвокатска канцеларија се соочиле со судско сослушување. Како резултат на тоа, адвокатот и адвокатската канцеларија за која работи, беа санкционирани со парична казна од 5.000 долари од федералниот судија во Њујорк. Ова може да се гледа како пример кој покажува дека вештачката интелигенција не може да биде одговорна за своите постапки, туку луѓето кои свесно одлучуваат да се потпрат на неа. Некои американски федерални судови веќе презедоа превентивни мерки против вештачката интелигенција, каде што судиите бараат адвокатите да потврдат дека не користеле вештачка интелигенција за да ги изготват своите документи, или, ако ги подготвила вештачката интелигенција, дека постои човечка проверка.

Иако постоеше одредена надеж дека вештачката интелигенција може да го олесни животот на адвокатите во однос на правните истражувања, сè уште е потребна човечка проверка за да се обезбеди нејзината веродостојност. Она што треба да го имаме на ум е дека ChatGPT не е создаден за правни цели и затоа можеби не е најдобриот студент по право за да се вработи како практикант во адвокатска канцеларија. Можеби е брз во генерирање одговори, но се чини дека адвокатите би потрошиле повеќе време во изготвување и двојна проверка на случаите произведени со вештачка интелигенција отколку кога самите би ја завршиле работата. Што значи дека ChatGPT може да се види на суд само ако е потврден од луѓе.

Досега не сме виделе ChatGPT да се користи во правни случаи во Западен Балкан, каде што вештачката интелигенција како таква сè уште срамежливо се користи. Ова би можело да биде возможно само ако локалните експерти за вештачка интелигенција создадат правен четбот за адвокати и судии, па да ја видиме неговата употреба и во овој агол на светот. Или експертите нема да направат ништо додека не видат како се покажуваат „правните вештини“ на ChatGPT кои се разликуваат од земја до земја.

Во секој случај, веќе станавме зависни од дигитализацијата (каде што сè е веќе поврзано) и вештачката интелигенција (каде што сè станува интелигентно) што, меѓу другото, може да доведе до одредени ризици. Се надеваме дека ќе бидеме доволно внимателни да не дозволиме оваа дигитална револуција да излезе од контрола и да ги проголта нејзините родители. Со тоа ниво на свест, одговорност и безбедност, можеме слободно да им посакаме добредојде на четботовите на суд.

 

Бојана Ковач, правен истражувач во Diplo Foudation