Кога никој не е виновен: Распрсната одговорност и ризиците во екосистемот на вештачката интелигенција
Софтверски компании коишто вградуваат AI модели, и скриениот ризик
Во денешниот технолошки екосистем, ретко кој производ е изграден „од нула“.
Постојат големи компании што развиваат основни модели на вештачка интелигенција, како Anthropic, ChatGPT, Google и Microsoft. Тие создаваат општи системи што потоа ги користат други компании како основа за свои решенија.
Но, „апликативните“ софтверски компании делуваат во еден чекор понатаму. Тие не ја создаваат самата интелигенција, туку ја вградуваат во свои производи - ERP системи, CRM платформи, аналитички алатки или автоматизација на процеси.
На прв поглед, ова изгледа како логичен развој: секој гради врз постоечка технологија. Но токму тука се крие еден од најголемите ризици.
Ако основниот модел направи грешка - на пример, измисли неточна информација (халуцинира), даде погрешен совет или донесе лош заклучок - апликативната компанија нема целосна контрола врз тоа однесување.
Таа може да додаде проверки, филтри и ограничувања. Но не може да го промени начинот на кој моделот „размислува“. Не може да навлезе во неговото јадро.
Со други зборови, тие градат производ врз нешто што не го контролираат целосно.
Кој е одговорен кога нешто ќе тргне наопаку?
Во таква ситуација, логично се поставува прашањето: ако корисникот претрпи штета, кој е одговорен?
Крајниот корисник најчесто ќе ја гледа компанијата што му го продала решението како одговорна. Тоа е природно - таа е лицето коешто стои зад производот.
Но таа компанија може да тврди дека грешката потекнува од основниот модел, односно од друг добавувач.
Така се создава синџир на одговорност, каде што:
- едниот ја користи технологијата,
- другиот ја развива,
- а третиот ја користи крајната услуга.
Во таков синџир, одговорноста не исчезнува – туку се распрснува.
Дали постои правна празнина?
Често се слуша дека законите не се подготвени за вакви ситуации. Но тоа не е сосема точно.
И во Европската Унија и во Македонија, постојат правни механизми што можат да се применат. Само што тие не се создадени специјално за вештачка интелигенција.
Најважниот принцип е едноставен: вештачката интелигенција не е правен субјект.
Тоа значи дека не може да биде носител на одговорност. Одговорноста секогаш паѓа на човек или компанија.
Прашањето не е дали има одговорност, туку кој точно ја носи.
Како правото гледа на ваквите ситуации?
Во Европската Унија веќе постојат правила што ја уредуваат употребата на вештачка интелигенција. Тие не решаваат сè, но воведуваат обврски за тоа како системите треба да се развиваат и користат.
Во Македонија, пак, нема посебен закон за вештачка интелигенција. Но тоа не значи дека нема правила.
Се применуваат постојните закони, а особено:
- Законот за облигациони односи (штета и одговорност),
- Законот за заштита на лични податоци,
- како и договорите меѓу компаниите.
Овие закони веќе предвидуваат дека:
- секој што предизвикува штета е одговорен,
- производителот може да одговара за дефектен производ,
- компаниите мора да постапуваат внимателно и професионално,
- автоматските одлуки што влијаат на луѓето имаат ограничувања.
Што всушност се менува со вештачката интелигенција?
Технологијата не ја укинува одговорноста, но ја прави потешка за утврдување.
Постојат три главни причини за тоа:
Прво, причинско-последичната врска станува нејасна.
Тешко е да се утврди дали грешката е во моделот, во податоците, во конфигурацијата или во начинот на користење.
Второ, грешките се „натрупуваат“.
Една неточна одлука може да се повтори илјадници пати за многу кратко време.
Трето, одговорноста се дели.
Во системот учествуваат повеќе компании, и секоја има дел од контролата – но не целосна.
Улогата на договорите и контролите
Во ваков контекст, договорите стануваат клучни.
Компаниите однапред се обидуваат да дефинираат кој за што одговара, до кој износ, во кои ситуации и под кои услови.
Истовремено, сè поголемо значење имаат процесите на тестирање, следење на системите, логирање (водење евиденција на случувањата), можност за човечка интервенција.Компаниите не ветуваат дека системот никогаш нема да згреши - тие се обидуваат да покажат дека направиле сè што е разумно за да го намалат ризикот.
Вештачката интелигенција не создава свет без одговорност, туку создава свет во кој одговорноста е распределена, посложена, и понекогаш нејасна.
Особено кога има повеќе нивоа – основни модели и второстепени производи – утврдувањето на вистинската причина и одговорност станува сериозен предизвик.
Но едно останува непроменето: секогаш постои одговорна страна.
Прашањето е само како ќе се утврди – и колку ќе биде тоа тешко во пракса.
Comments
Post a Comment