I. Уводни бележки 

В края на септември Европейската комисия публикува предложение за нова директива[1], уреждаща извъндоговорната гражданска отговорност при вреди от използването на системи с изкуствен интелект (ИИ). С цел изграждането на цялостна концепция за отговорността при вреди, причинени от системи с ИИ, предложеният режим е допълнение към изцяло ревизираната Директива 85/374/ЕИО[2] относно отговорността за вреди, причинени от дефект на стоки. Двете предложения идват след приетата на 20 октомври 2020 г. резолюция[3] от Европарламента с искане Комисията да изготви предложение за регламент относно отговорността при експлоатацията на системи с ИИ. В условията на световен подем на технологиите, използващи ИИ[4], в свят, в който автомобили се управляват сами[5], умни асистенти обучават децата ни[6], чатботове създават сайтове и пишат книги по задание[7], политически партии са предвождани от ИИ[8], а софтуерни програми раздават правосъдие[9], подобни законодателни промени са крайно необходими, макар да оставам песимист по отношение на актуалността им към момента на приемането им спрямо темпа на развитие на иновациите.

И ако посоченият списък с приложения на технологията звучи прекалено футуристично на фона на българската реалност, то много по-отрезвяващи биха били следните ситуации: недопускането до интервю за работа, поради отсяването на кандидатурите не от човек, а от софтуер с дискриминационен предразсъдък например на базата на определен етнос в страната; нанасянето на щети по автомобил, причинени от друг по време на режим за автоматично паркиране без човешка намеса; загубването на средства, инвестирани в платформа, използваща ИИ с непрозрачен код; неотпускането на кредит поради лош скоринг, изготвен от система с ИИ; нанасянето на щети на реколтата на съседен имот, поради грешка в системата на автономна земеделска техника.

Всички тези ситуации поставят въпроси относно това кой носи отговорност и какви са пределите на тази отговорност. Но преди да бъде разгледано в детайли предложението на Комисията и да им се даде отговор, следва да бъде очертана дефиницията, която европейското законодателство дава за изкуствен интелект.

II. Понятие за ИИ

Съгласно чл. 3, пар. 1 от проекта за Регламент за ИИ[10], „система с изкуствен интелект“ означава система, която е проектирана да работи с елементи на определено ниво на автономност и която въз основа на данни и входяща информация, предоставени от машина и/или от човек, прави изводи как да се постигне даден набор от дефинирани от човек цели, използвайки машинно обучение и/или основани на логика и на знания подходи, и произвежда генерирани от системата резултати като съдържание (генеративни системи с ИИ), прогнози, препоръки или решения, влияещи върху среди, с които AI системата взаимодейства“.

В литературата самото понятие търпи критика, поради факта, че поставя онтологичния въпрос що е то изкуствен интелект и предизвиква спор относно същността на интелигентността, познанието и съзнанието[11]. За по-практичен се счита подходът, възприет от американския Algorithmic Accountability Act, който вместо да дава дефиниция на понятието за ИИ, работи с термина „автоматизирани системи за вземане на решения“, който улава по-добре техническите характеристики на процеса и същността на комбинацията от алгоритми за машинно обучение и кодирани аргументационни рамки[12].

За да попадне определена система под обхвата на понятието за ИИ, възприета от Съвета на ЕС в приетия от него на 25 ноември 2022 г. общ подход, дадена система следва, за разлика от по-обикновени софтуерни системи, непременно да използва машинно обучение или подходи, основани на логиката и знанията, с цел осъществяване на дадената задача. Възможно е също така под обхвата на регулацията да попаднат и нерегулирани иновации, които се използват в комбинация с ИИ в една система като например квантовите изчисления.

Ако една система не бъде окачествена като интелигентна и не попадне в регулацията на директивата, то съгласно сега действащата уредба би следвало вредите, произлезли от нея, да попаднат в хипотезата на чл. 50, изр. първо от ЗЗД (вреди от вещи), а отговорност да се търси от собственика на вещта и от лицето, под чийто надзор се намира тя. В Постановление № 17 от 18.11.1963 г. на Пленума на ВС, допълнено с Постановление № 4 от 30.10.1975 г. на Пленума на ВС, са посочени разделителните линии на отговорността по чл. 50 спрямо тези по чл. 45 и по чл. 49 от ЗЗД. Тъй като отговорността по чл. 50 е безвиновна, то собственикът и лицето, надзираващо вещта, не бива да са допринесли за настъпването на вредите. Необходимо е да е налице техническа невъзможност за обезопасяването на вещта, а вредите, нанесени от нея, да са резултат от нейната вътрешна динамика и свойства[13]. По отношение на вредите, понесени от потребителите на стоки, същите имат права по Раздел IV от ЗЗП (транспониращ Директива 85/374/ЕИО), който касае отговорността за вреди, причинени от дефект на стоката.

III. Измененията в Директива 85/374/ЕИО 

Съгласно предложените промени, обхватът на Директива 85/374/ЕИО[14] относно отговорността за вреди, причинени от дефект на стоки, няма да засегне права, които увреденото лице е придобило по силата на национално законодателство на държава членка, касаещо договорна или извъндоговорна отговорност, на основания, различни от дефекта на стоката. Съвсем логично, с известна доза тавтология дори, в чл. 2, пар. 3, б. (с) от проекта е предвидено, че незасегнати от приложното поле на Директива 85/374/ЕИО остават и права, придобити по силата на национално законодателство, транспониращо европейски правни норми, като например тези на новата директива за отговорността при вреди от ИИ.

Според предложението, системите и стоките с ИИ ще попаднат в обхвата на дефиницията за „стока“ на Директива 85/374/ЕИО, която е разширена с включването на термина „софтуер“. В официалния доклад на European Law Institute[15] по отношение на предложените промени са изразени опасения, че тази формулировка на термина „софтуер“ може да изключи от обхвата си продукти тип услуга (software as a service – „SaaS”), закупени чрез абонамент, които също следва да попаднат в обхвата на регулацията. Въпреки че подкрепям тезата, че „изваждането“ на SaaS от уравнението би довело до неоправданото различно третиране на еднакъв риск – софтуер, закупен еднократно, и такъв, предоставен на базата на абонамента услуга, биха могли да представляват еднаква опасност за имуществото на потребителите, то не мисля, че има основания за стеснително тълкуване на термина „софтуер“, а тъкмо обратното – едно стеснително тълкуване би представлявало неоправдано намаляване на обема на правата, заложени в директивата.

В предложения проект Еврокомисията запазва обективната (безвиновна) отговорност, в резултат на което за увреденото лице няма да съществува задължение да доказва вината на производителя – ключов момент в хипотезата на договорна отговорност особено по отношение на стоки с ИИ. Предложените промени засягат и тежестта на доказване, като при казуси с повишена сложност съдът е упълномощен да облекчи тежестта на доказване на увреденото лице, с цел постигане на баланс[16]. Такива може да са дела с предмет иск за обезщетение за вреди, нанесени от умни устройства или от системи с ИИ.

Ако съдът прецени, че ищецът е изправен пред прекомерни затруднения поради техническа или научна сложност на използваната технология (например ИИ в комбинация с машинно обучение) и след като е представил достатъчно релевантни доказателства в подкрепа на твърденията си, се предполага, че: стоката е допринесла за вредата; има вероятност стоката да е била дефектна или че дефектът й е вероятна причина за увреждането, или и двете (чл. 9, пар. 4). Ответникът има право да оспори вероятността стоката да е била дефектна или съществуването на прекомерни затруднения. Дефектът на стоката се презюмира и ако: ответникът не разкрие релевантни за делото доказателства[17]; ищецът докаже, че стоката не отговаря на изискванията за безопасност или докаже, че вредата е причинена от явна неизправност на стоката (чл. 9, пар. 2). Ако дефектът бъде доказан, то това води до презумпция за причинно-следствената връзка между дефекта и вредата, която обаче трябва да е вероятна последица от дефекта (чл. 9, пар. 3). Всички гореспоменати презумпции са оборими от ответника в хода на съдебния процес.

Нов момент в измененията е и възможността иск за обезщетение да се насочва не само срещу производители на хардуерни продукти, но и срещу тези на софтуерни продукти, както и срещу доставчиците на дигитални услуги, които услуги обаче следва да са от съществена важност за начина на функционирането на стоката[18]. Производителите отговарят и за вреди, причинени от изменения в стоки, които вече са пуснати на пазара, включително когато тези промени са резултат от софтуерна актуализация или машинно обучение[19]. Съгласно нормата на чл. 5, пар. 1 от проекта за измененията, право на иск имат само физически лица.

Съгласно чл. 4 от предложението за изменения на директивата, за „вреда“, освен причинена смърт и телесна повреда, вече се счита и констатирана от медицинско лице нанесена вреда на психичното здраве. Загубата или повредата на данни, които не се използват само за професионални цели, също са добавени в списъка с основания за подаване на иск за обезщетение.

За разлика от досегашната уредба на вредата в Директива 85/374/ЕИО, където дефиницията на понятието за вреда е разгърната в отделен член – чл. 9, подчертаващ важността на термина по отношение на урежданата материя (вреди от стоки), то в предложението за изменения на директивата Комисията е избрала да се разграничи от това наблягане, като е „изпратила“ понятието в общия списък с дефиниции на чл. 4. От обхвата на понятието за вреда е изключена хипотезата за повреждане или унищожаване на вещ от дефектен компонент на самата вещ. Изключението, намиращо се в чл. 4, пар. 6, б. (b), т. (ii), заслужава внимание, тъй като в резултат на него може да се стигне до безумни ситуации за увреденото лице[20]. Такава е хипотезата, при която автомобил катастрофира в резултат на грешка в софтуера на автономната си система. Тогава вредите, нанесени по автомобила, ще подлежат на обезщетяване в случай, че системата е закупена отделно от автомобила, но не и ако е била част от първоначалното му оборудване. В такъв случай за нанесените вреди ще трябва да се търси обезщетение по общия ред за деликт.

Предложените промени в Директива 85/374/ЕИО уреждат само имуществените вреди като основание за обезщетение, докато за неимуществените е предоставена свобода на държавите членки сами да уредят въпроса. Този подход частично се различава в сравнение с възприетия от чл. 9 от действащия в момента текст на директивата, транспониран и в чл. 131, ал. 2 от Закона за защита на потребителите, съгласно който изрично е упоменато, че увреденото лице може да упражни правото си на обезщетение за неимуществени вреди, причинени от дефектна стока, по общия ред.

Измененията в текста на директивата влизат в сила 1 година след приемането им.

IV. Директива за извъндоговорната гражданска отговорност при вреди от използването на системи с ИИ (наричана за краткост „Директивата за вреди от ИИ“)

Необходимостта от уреждането на материята в отделна директива Европейската комисия вижда поради различията в националните режими на деликтната отговорност, които счита за непригодни за справяне с искове за вреди от стоки и услуги с ИИ, както и в т. 143 от резолюцията на Европарламента[21] от 3 май 2022 г., изискваща от нея да представи законодателно решение по въпроса. В предложението за проект на директивата е изтъкнато, че за увредените лица съществува задължение да докажат неправомерното действие или бездействие, причинило вредата. В същото време спецификата и автономността на технологията на ИИ и липсата на прозрачност в начина ѝ на функциониране (т.нар. „ефект на черната кутия“) водят до неимоверни затруднения да се идентифицира отговорното лице, да се докаже вината и причинно-следствената връзка, както и до прекомерни разходи, които в крайна сметка биха затруднили достъпа до правосъдие.

Съгласно разпоредбата на чл. 1, пар. 2, директивата обхваща гражданскоправни искове при извъндоговорна отговорност, основаваща се на вина, по отношение на вреди, нанесени от системи с ИИ. Макар директивата да използва делението, възприето от проекта за Регламент за ИИ, на системи с ИИ и на високорискови системи с ИИ, тя предвижда отговорност за вреди, нанесени от всички видове ИИ. В обхвата на директивата влизат и искове за обезщетение за вреди от системи с ИИ, накърнили основни човешки права и свободи. Директивата може да намери приложение и в хипотезата на отговорност на държавата за вреди от системи с ИИ. Извън обхвата на директивата остават: наказателната отговорност; отговорността в областта на транспорта; правата по Директива 85/374/ЕИО; изключенията от отговорност и дю дилиджънс в проекта за Digital Services Act; както и националните разпоредби относно тежестта на доказване и за дефиниране на вината (освен по отношение на това, което е предвидено в чл. 3 и чл. 4 на директивата).

Правото на обезщетение възниква, когато са нанесени вреди в резултат от дейност на система с ИИ или от невъзможността да се произведе желаният резултат от системата. За разлика от разпоредбата на чл. 5, пар. 1 от предложените изменения на Директива 85/374/ЕИО, съгласно която с право на иск разполагат само физически лица, то на основание чл. 2 , т. 6 и т. 7 от Директивата за вреди от ИИ с право на иск разполагат не само увредените физически, но и юридически лица. И при двата акта се допуска упражняването на право на иск от наследник, както и от трето суброгирано или упълномощено лице. Иск за вреди може да бъде насочен срещу всяко отговорно лице, в т.ч. разработчик, доставчик и ползвател на система с ИИ.

В мотивите на предложението е посочено, че нуждата от приемането на директивата е продиктувана от 27-те различни режима на деликт в националните законодателства на държавите членки и колизията им с Единния пазар. Изтъква се още, че в своите национални стратегии за ИИ Чехия, Италия, Малта, Полша и Португалия предвиждат инициативи с цел изясняване на въпросите около отговорността за вреди. Въпреки това обаче ЕК е възприела подход на минимална хармонизация, който позволява на увредените лица да се позоват на по-благоприятна за тях правна норма от националното законодателство, каквато, според спецификите на казуса, може да се окаже тази на чл. 50 от ЗЗД, предвиждаща безвиновна отговорност за деликт от вещи. Предели на вината ще бъдат „всички вреди, които са пряка и непосредствена последица на увреждането“ (чл. 51 от ЗЗД). В чл. 5 от предложението (т.нар. „ревизионна клауза“) все пак е предвидено задължение за ЕК да изготви доклад 5 години след транспонирането на директивата, като направи преоценка на ефективността на избрания вид отговорност, базиран на вина, и необходимостта от евентуалното въвеждане на безвиновна отговорност в комбинация със задължителна застраховка за операторите.

Съгласно разпоредбата на чл. 3, пар. 1, по отношение на високорискови системи с ИИ, националните съдилища следва да бъдат упълномощени да разпоредят по време на съдебното дирене разкриване на доказателства, които са необходими за установяване наличието на субективно право на обезщетение. Такова разпореждане следва да бъде направено само ако ищецът е изчерпал всички възможности (които се считат за пропорционални) за събиране на съотносими доказателства и сам вече е изискал предоставянето им от доставчика на системата, от лице, задължено на основание чл. 24 или чл. 28, пар. 1 от Регламента за ИИ, или от ползвателя на системата. Този способ следва да се използва при максимална степен на защита на търговската тайна или информация, свързана с националната сигурност. Ето защо съдилищата следва да разпореждат представяне на доказателства, като са лимитирани до необходимото с цел поддържане на иска.

Директивата урежда възможност за обезпечаване на доказателства. Такова предварително събиране е предвидено вече в чл. 207 от ГПК, когато съществува опасност едно доказателство да се загуби или неговото събиране да се затрудни. Когато се касае за висящо дело, молбата за обезпечение на доказателства се подава в съда, който разглежда делото, а ако делото не е заведено още – в районния съд по постоянния адрес на лицето, което ще се разпитва, или по местонахождението на имота, върху който ще се извърши огледът (чл. 208, ал. 1 от ГПК).

Съгласно чл. 3, пар. 5, когато ответникът по иск за вреди от високорискова система с ИИ не спази разпореждане за разкриване или обезпечаване на доказателства, това води до презумпция за „неспазване на задължението за полагане на грижа, по-специално при обстоятелствата, изложени в чл. 4, пар. 2 или пар. 3, че изисканите доказателства са предназначени да докажат в пълнота твърденията в иска“. Това процесуално средство е валидно само по отношение на високорискови системи с ИИ за дела, при които именно ответникът е отговорно лице за неспазването на съдебното разпореждане. Не всяко неспазване на задължението за полагане на грижа следва да води до установяването на презумпцията и да я свързва с вредоносния резултат, причинен от система с ИИ. Връзката между виновното поведение и вредата от ИИ трябва да е явна и несъмнена. Неподаването на документи пред определен орган в изискуем срок например не е пример за неполагане на грижа. За ответника съществува възможност да обори презумпцията, установената в негова тежест.

Втората презумпция, с която директивата борави, е тази за каузалната връзка между вината на ответника и вредоносния резултат от системата с ИИ или невъзможността ѝ да произведе желан резултат. За да се презюмира причинно-следствената връзка обаче, в разпоредбата на чл. 4, пар. 1 са заложени три юридически факта, които следва да са налице кумулативно.

На първо място, в хода на съдебния процес трябва успешно да е доказано неполагането от ответника на изискуема грижа или съдът сам да е презюмирал това на основание чл. 3, пар. 5 от директивата. На второ място, спрямо спецификите на казуса да може да бъде заключено, че виновното поведение на ответника е повлияло на системата с ИИ и е допринесло за вредата. И на последно място, вредоносният резултат от системата с ИИ или невъзможността ѝ да произведе желан резултат трябва да са нанесли вреда. Или на елементарен математически език, формулата за презумпцията, съотносима при определени условия към всички видове системи с ИИ, изглежда по следния начин:

Неполагане на грижа + Повлияване на вредоносен резултат + Установена нанесена вреда = Презумпция за причинно-следствена връзка.

В случай на иск за обезщетение, насочен срещу доставчик на високорискова система с ИИ или срещу лице, което е задължено по смисъла на чл. 24 или чл. 28, пар. 1 от Регламента за ИИ, виновното поведение, изразяващо се в неполагане на дължима грижа и посочено като първи компонент от формулата, се установява, ако: въведените в системата данни не отговарят на изискванията за обучение; липсва прозрачност на начина на проектиране на системата; затруднен е надзора над системата; тя не отговаря на изискванията за точност, надеждност и киберсигурност; не са предприети коригиращи действия при необходимост. Когато ответникът е само ползвател на високорискова система с ИИ, се прави преценка относно приноса му към вредоносния резултат на база критериите в чл. 4, пар. 3, преди да се заключи, че не е положена дължимата грижа.

Важно правило въвежда разпоредбата на  чл. 4, пар. 4 – при иск за вреди, причинени от високорискови системи с изкуствен интелект, ако ответникът по иска докаже, че ищецът може да събере достатъчно доказателства и разполага с достъп до експертиза, така че сам да докаже вината на ответника, изразяваща се в неполагана грижа, то тогава презумпцията за причинно-следствена връзка (формулата) по чл. 4, пар. 1 не се прилага. В тези случаи увредената страна сама ще трябва да докаже взаимовръзката между дължимата, но неположена грижа, от страна на ответника и каузалността ѝ по отношение на дадения резултат или невъзможността да се произведе желания резултат от високорисковата системата с ИИ, което от своя страна е довело на нанасяне на вредите, понесени от ископодателя. Все пак от ищеца не би могло да се очаква да обясни в детайли съответните характеристики на системата.

В чл. 4, пар. 5 е предвидено по правило неприлагане на посочената презумпция за системи с ИИ, които не са високорискови. По преценка на съда тя ще се приложи само когато за ищеца представлява особена трудност сам да се справи с доказването на причинно-следствената връзка. Презумпцията не се прилага и срещу ответник, които е използвал система с ИИ (без значение от типа на системата) за лични, непрофесионални цели, освен ако е модифицирал сам системата или не е спазил задължение за необходима намеса.

Предвидено е директивата да влезе в сила 2 години след приемането ѝ.

V. Актуални проблеми 

Макар пред двете директиви да стои дълъг път преди Европарламентът и Съветът да обединят вижданията си около финалните им варианти, няма как да не се обърне внимание на по-скоро плахия подход, който ЕК е избрала да приложи в предложените текстове, особено на фона на гръмката заявка за улесняване на увредените лица в съдебната им битка за обезщетение. Това противоречие най-ясно личи, на първо място, от текста на резолюцията от 20 октомври 2020 г. на Европарламента, който изисква от Комисията да представи законодателно предложение за регламент относно отговорността при експлоатацията на системи с изкуствен интелект. От приетия в резолюцията текст следва, че като се взема предвид потенциалното застрашаване на обществото от високорискови системи с ИИ, по отношение на тях следва да се „установи общ режим на обективна отговорност“, който да има предимство пред националните режими на отговорност в случай на противоречаща класификация на обективната отговорност на системите с ИИ. Две години по-късно вместо това, „в изпълнение на резолюцията“, ЕК приема директива с минимална степен на хармонизация, която предвижда отговорност, основана на вината. На второ място, в самите съображения и в обяснителния меморандум на директивата е посочено, че автономността и непрозрачността на определени системи с ИИ биха направили непосилна задачата за увредените лица да се справят с тежестта на доказване. Още повече, обобщените резултати от проведените от Комисията консултации със заинтересовани страни показват, че граждани, потребителски организации и академични институции силно са подкрепили хармонизирането на безвиновна отговорност в комбинация със задължително застраховане, докато мнозинството от представителите на бизнеса са я счели за непропорционална. Тук основателно може да бъде поставен въпросът дали в предложението си Комисията е успяла да постигне баланс между защитата на правата на увредените лица, от една страна, и насърчаване развитието на този мултимилионен сектор. Лично на мен везните ми изглеждат доста наклонени.

Следва да бъде посочено, че най-ключовият елемент в цялата директива за вреди от ИИ – презумпцията за причинно-следствената връзка, губи своето приложение просто ако ответникът докаже, че технологията, която използва, е достатъчно прозрачна и добре документирана, за да бъде разбрана от подателя на иска. И този подход очевидно е намерен за изключително уместен по отношение на вреди от високорискови системи с ИИ.

Нека дадем някои примери за приложенията на тези системи от каталога на Анекс III към Регламента за ИИ: биометрична идентификация; снабдяване с вода, газ, отопление и електричество; достъп до образование или оценяване; подбор на работно място; допустимост за получаване на социални обезщетения; оценка на кредитоспособност; определяне на приоритет при изпращането на службите за спешно реагиране, включително при пожарникари и медицинска помощ; правораздаване. Нанесени вреди от система от този списък биха представлявали евентуални нарушения на основни права, прокламирани от ХОПЕС: правото на достъп до образование (чл. 14), право на труд (чл. 15), закрила на здравето (чл. 35), защита на потребителите (чл. 38). Въпреки това, ако ответникът, носещ отговорност за тези системи, чинно спазва задълженията си за водене на надлежна и прозрачна документация по Регламента за ИИ, вероятно най-работещият механизъм за защита на увредените лица в цялата директива никога няма да влезе в действие. Това от своя страна би довело до огромен натиск върху съдилищата по отношение на преценката дали доказателствата и достъпът до експертиза са достатъчни за ископодателя да докаже причинно-следствената връзка сам и най-вероятно би намерило отражение в противоречива съдебна практика.

Ситуацията се заплита още повече в хипотезата на ищец юридическо лице (увредено например от система с ИИ, отговаряща за снабдяване), което е назначило IT служители. Тогава би било особено трудно да се установи дали ищецът има достъп до необходимата експертиза и дали IT служителите биха могли да допринесат за доказването на каузалната връзка, а от там и да се реши прилагането на презумпцията за каузалност. В същото време обаче увреденото юридическо лице не разполага с право на иск по Директива 85/374/ЕИО.

Сравнявайки предложенията за двете директиви се стига и до друга интересна ситуация. Поради режима на обективна отговорност по Директива 85/374/ЕИО интересите на увредено от стока с ИИ лице биха били защитени по-добре от интересите на лице, чиито основни права са нарушени. В този смисъл, ако в дома на дадено физическо лице прахосмукачката му робот съсипе например семейни бижута, тази вреда би попаднала в режима на обективната отговорност, но ако това същото лице не бъде допуснато до интервю за работа заради погрешен алгоритъм, основан на предразсъдък, или не му бъде отпуснат жилищен кредит, заради лош скоринг, изчислен от система с ИИ, отговорността вече не е безвиновна. Така една система, която е нещо физически невидимо за увреденото лице, слага точка на демокрацията такава, каквото я познаваме, и отвежда битката за браненето на основните права на едно ново ниво – това на дигиталната ера.

Ако Европарламентът и Съветът запазят отговорността, основана на вината, и не коригират чл. 4 от Директивата за вреди от ИИ в частта му с презумпцията за причинно-следствена връзка поне що се касае до високорискови системи с ИИ, ще изминат 5 години, считано от влизане на директивата в сила, преди ЕК да прецени необходимостта от предлагане на промени и на безвиновна отговорност. А до тогава би могло да се разсъждава дали предложените текстове изпълняват целите на разпоредбата на чл. 47 от Хартата на основните права на ЕС, която гарантира правото на ефективни правни средства за защита и на справедлив съдебен процес.

Завършвам статията с финални изречения по темата, които вместо мен написа чатботът с ИИ ChatGPТ:

В заключение, режимът на ЕС за отговорността осигурява рамка за справяне с вредите, причинени от системите с изкуствен интелект, като се съсредоточава върху това да гарантира, че виновните лица са подведени под отговорност и че увредените лица могат да получат обезщетение. Въпреки това предизвикателствата, свързани с определянето на вината и причинно-следствената връзка в контекста на системите с ИИ, ще изискват внимателно обмисляне и разработване на нови правни подходи, за да се гарантира, че режимът на отговорност може ефективно да се справи с рисковете, породени от тези технологии[22].

[1] https://ec.europa.eu/info/business-economy-euro/doing-business-eu/contract-rules/digital-contracts/liability-rules-artificial-intelligence_bg
[2] https://single-market-economy.ec.europa.eu/document/3193da9a-cecb-44ad-9a9c-7b6b23220bcd_en
[3] Резолюция на Европейския парламент от 20 октомври 2020 г. с препоръки към Комисията относно режим на гражданска отговорност за изкуствения интелект (2020/2014(INL)) https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_BG.html
[4] Към 2022 г. като примери за приложението на ИИ могат да бъдат посочени роботи, автономни автомобили, умни асистенти (домашни; образователни и др.), чат ботове, програми за автоматични финансови инвестиции и маркетингови анализи, технологии за разпознаване на глас и лице, софтуери за създаване на deep fake видеа, автономни оръжия и др.
[5] Ling, J., “Autonomous Vehicles Join the List of US National Security Threats”, Wired, (2022), https://www.wired.com/story/autonomous-vehicles-china-us-national-security/ (Accessed 20.12.2022)
[6] Linn, S., “How AI-Powered Tech Can Harm Our Children”, Time, (2022), https://time.com/6216722/how-ai-tech-harms-children/ (Accessed 20.12.2022)
[7] ChatGPT e новосъздаден чатбот с ИИ, който бе представен от OpenAI през ноември т.г. и предизвика истински фурор, събирайки над милион потребители само за 5 дни. Освен да отговаря на поставени питания и да създава текст, ChatGPT по възлагане от компютърни експерти пише и кодове за създаване на сайтове, който бяха успешно тествани. https://openai.com/blog/chatgpt/
[8] Xiang, C., “This Danish Political Party Is Led by an AI”, Vice, (2022) https://www.vice.com/en/article/jgpb3p/this-danish-political-party-is-led-by-an-ai (Accessed 20.12.2022)
[9] Vasdani, T., “Robot justice: China’s use of Internet courts“, The Lawyer’s Daily, (2020)
 https://www.thelawyersdaily.ca/articles/17741/robot-justice-china-s-use-of-internet-courts (Accessed 20.12.2022)
[10] https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/en/pdf
[11] Mökander, J., Juneja, P., Watson, D.S. & Floridi, L., “The US Algorithmic Accountability Act of 2022 vs. The EU Artificial Intelligence Act: what can they learn from each other?” Minds & Machines Vol. 32, 751–758 (2022). https://doi.org/10.1007/s11023-022-09612-y (Accessed 20.12.2022)
[12] Mökander, J., Juneja, P., Watson, D.S. & Floridi, L., цит. съч.
[13] В този смисъл Решение № 7444 от 8.11.2017 г. на СГС; Решение № 1193 от 21.11.2018 г. на РС – Стара Загора; Решение № 109 от 11.05.2022 г. на ОС – Враца.
[14] Транспонирана в Закона за защита на потребителите, чл. 130 и сл.
[15] ELI, Feedback on the European Commission’s Proposal for a Revised Product Liability Directive, стр. 9,   (2022) https://europeanlawinstitute.eu/fileadmin/user_upload/p_eli/Publications/ELI_Feedback_on_the_EC_Proposal_for_a_Revised_Product_Liability_Directive.pdf
[16] Чл. 9 от Директивата.
[17] Целта тук е да се постигне баланс между професионалните опит и познания на производителя и липсата на такива у увреденото лице.
[18] Например доставчикът на навигационната система на автономен автомобил.
[19] Чл. 10, пар. 2 от Директивата.
[20] ELI, цит. съч, стр. 10.
[21] https://www.europarl.europa.eu/doceo/document/TA-9-2022-0140_BG.html
[22] В чат на английски език в Chat GPT описах темата на настоящата статия и като задача поисках от него да напише нейния финал. Ето го текстът в оригинал: “In conclusion, the EU liability regime provides a framework for addressing damages caused by AI systems, with a focus on ensuring that those who are at fault are held accountable and that victims are able to obtain compensation. However, the challenges of determining fault and causation in the context of AI systems will require careful consideration and the development of new legal approaches to ensure that the liability regime can effectively address the risks posed by these technologies.“.

18
Коментирайте

avatar
Картинки
 
 
 
Аудио и видео
 
 
 
Документи и архиви
 
 
 
нови хронологично най-добре оценени
Richard Hall
Richard Hall
02 февруари 2023 13:40
Гост

Liability for harm caused by artificial intelligence (AI) is a complex issue that raises questions about accountability and responsibility in the development and deployment of AI systems. As AI becomes more advanced and widespread, it’s important to consider the potential consequences of its actions and the mechanisms for addressing harm caused by AI. There is currently no clear consensus on who should be held responsible for harm caused by AI, and this remains a topic of debate among experts, policymakers, and stakeholders. Addressing this issue will require a combination of technical, legal, and ethical considerations to ensure that AI is… Покажи целия коментар »

Име
Име
16 януари 2023 23:21
Гост

Касае се за вреди – причинени от вещ.

Интелектът има осъзнаване за разума и т.н.

Смехурко
Смехурко
16 януари 2023 13:05
Гост

ИИ за сега си има разработчици и собственик. При вреди тъкмо той е отговорен.
Слава богу, все още няма ИИ, които да разработват ИИ или да са собственици на ИИ.
Спете спокойно деца… за сега.

Анонимен
Анонимен
16 януари 2023 13:29
Гост

Именно! Това и обезсмисля цялата статия и труд на колежката, но няма кой да се замисли върху далеч по-елементарното зад напълно изфабрикувани правни проблеми, които се поставят, като уж съществуващи! Странно е, че не е имало кой да й го каже.

Кодекс
Кодекс
16 януари 2023 12:28
Гост

Браво! Рядко се среща толкова добре написана статия , с толкова изчистен и стилен изказ. Адмирации колега, благодаря Ви за удоволствието с така поднесеното от Вас!

Мъдрец
Мъдрец
16 януари 2023 9:27
Гост

Не лекциите по правна информатика в СУ при проф. Кискинов се коментираше тази тема. Даже когато аз бях студент се писаха статии в тази посока.

Проскубания бухал
Проскубания бухал
16 януари 2023 9:13
Гост

Интересна статия, доживяхме момента, в който да поставим прахосмукачката си по ограничено запрещение, като извадим някоя друга платка, ако не чисти както трябва.

Brandi Burke
Brandi Burke
16 януари 2023 8:55
Гост

Ето защо съдилищата следва да разпореждат представяне на доказателства, woodoku като са лимитирани до необходимото с цел поддържане на иска.

Джанго
Джанго
16 януари 2023 8:21
Гост

Поздравления за статията, стряскащо е как животът е изпреварил правото и колко рискове носи задължителното иначе догонване.

Проскубания бухал
Проскубания бухал
16 януари 2023 9:11
Гост

Животът почти винги изпреварва правото, особено у нас, където това е принцип.

АнонименТоп-адвокат № 1,2 и 3
АнонименТоп-адвокат № 1,2 и 3
16 януари 2023 8:21
Гост

Най-вероятно се касае за вреди, причинени от вещи, нещо като като побесняла автоматична прахосмукачка. Иначе ако е софтуер, също ще да има вреди, но е по-мъчно да се разбере. Ако е автоматичен преводач, не знам какво да кажа.

Ако е медицински софтуер – носи си отговорност болницата.

Изкуствен интелект си приказваме от поне 50 години и е пълна утопия. Направиха да продава сладолед – но това е механично.

Примитивно е все още нивото, а и не виждам да стане – „Терминатор“1,2,3.

Проскубания бухал
Проскубания бухал
16 януари 2023 9:16
Гост

Не виждате, защото ИИ не ни позволява да виждаме, защото за него е по-важно да го подценяваме. 😉 Разликата във възможностите между човек – ИИ е все едно маймуна да се опита да разбере хората… само че в пъти по-голяма. 😀 😀

Z.Z
Z.Z
16 януари 2023 8:10
Гост

Това не звучи изчистено още на ниво Директива, а след това и ние като започнем да го побългаряваме…жална ни майка.

OMG
OMG
16 януари 2023 8:09
Гост

ChatGPТ вече е усвоил умението за писане, което нищо не казва. Иначе, поздравления за хрумката.

Проскубания бухал
Проскубания бухал
16 януари 2023 9:17
Гост

Да, действа отрезвяващо.

Анонимен
Анонимен
16 януари 2023 8:08
Гост

Това ще са делата на следващите десетилетия, да му мислят съдиите 🙂

Анонимен
Анонимен
16 януари 2023 9:02
Гост

Още от сега да започнат с обучения на младите, че като станат динозаври ще е мъка като с ЕИСС

Анонимен
Анонимен
16 януари 2023 9:09
Гост

Проблемът не им беше точно системата, но разбирам какво искаш да кажеш. Някои от тези хора се страхуват от самия РС и предпочитат пишеща машина