Отвореното писмо на Илън Мъск, публикувано в края на месец март 2023 г., предизвика бурна и нееднозначна обществена реакция, защото с него той и над 1000 души поискаха работата по създаването на системи с изкуствен интелект да спре за шест месеца[1].

Аргумент за това искане е бурното и безконтролно развитие на високотехнологични интелигентни машини, което може да доведе до сериозни промени в живота на Земята. Според авторите на писмото това развитие трябва да бъде контролирано и управлявано с повишено внимание и адекватни ресурси.

Така, според Мъск, работата по системите с изкуствен интелект (СИИ), които са по-мощни от GPT 4, трябва да продължи едва когато се убедим, че въздействието им е с положителен ефект, а рисковете, които те носят, свързани с разпространението на дезинформация и повсеместна автоматизация на професиите, могат да бъдат управлявани успешно.

Това писмо ясно посочва един от основните проблеми при СИИ – опасността да излязат извън контрола на човека. Процесът протича бързо и всичко се случва още преди да сме успели дори да определим коя машина представлява система с изкуствен интелект и коя е просто компютър. Това обстоятелство прави процеса още по-сложен, защото ако не знаем какво създаваме, няма как да сме сигурни, че упражняваме адекватен и ефективен контрол върху неговата работа.

Липсата на дефиниция за системите с изкуствен интелект: проблем или възможност?

Въпросът за дефинирането на понятието СИИ е на дневен ред отдавна, но все още няма легално определение, което да ни даде насоката за това какво е изкуствен интелект и какви качества трябва да притежава. Това е проблем заради липсата на яснота какво всъщност създаваме и дали всеки компютър трябва да бъде третиран като изкуствен интелект просто защото е по-бърз от човека.

От друга страна, липсата на дефиниция може да бъде разглеждана като възможност, защото така учените могат да експериментират, без да са ограничени от определение, което все още може да бъде само работно.

Ако светът се съобрази с исканията от отвореното писмо на Мъск, тези шест месеца може да означават и време за размисъл какво (трябва да) представлява системата с изкуствен интелект и кои са елементите, без които не бива да допускаме нейното съществуване.

Дефиницията на СИИ има значение не само, за да е ясно коя машина е просто дигитален помощник на човека и коя може да взема самостоятелни решения. Обект на интерес и повишено внимание следва да бъдат вторите, тъй като техните характеристики могат да доведат до последици, които са крайно непредвидими. Ясната дефиниция може да очертае техния профил, но и да посочи онези елементи, без които СИИ не следва да бъдат използвани и внедрявани.

Може да се твърди, че основните характеристики, на които една система трябва да отговаря, за да бъде определена като изкуствен интелект, до голяма степен са ясни. Но многообразието и сложният им характер затрудняват процеса на дефиниране, още повече, че те трябва да притежават не само технически изисквания (да се самообучават, да мислят самостоятелно и без намесата на човека, да извършват дейности, типични за човека, но да не са хора), но и да са създадени така, че да съблюдават етични стандарти и да не допускат нарушения на основи права на човека. И всичко това, без да имат съвест или съзнание, без да имат чувства или сетива като човека.

Безспорно СИИ имат огромен потенциал да помагат на човека и да допринесат за неговото благосъстояние и здраве, но същевременно те могат да излязат извън контрол и да нанесат непредвидими вреди на човечеството и на света. Затова човешкият мониторинг върху тяхната дейност е от съществено значение, независимо от степента на развитие на СИИ, те винаги трябва да бъдат наблюдавани и оценявани през призмата на защитата на хората и техните права.

Затова дефинирането на понятието СИИ е от значение за развитието на науката и практиката по тяхното създаване и използване. Безспорно не всяка дигитална система е система с изкуствен интелект и затова евентуална дефиниция би спомогнала по-лесно да разпознаем интелигентните машини. Ако не сме наясно какво представлява СИИ, не можем да я наблюдаваме и да контролираме нейната дейност. Не можем също така да предвидим и посоката на нейното развитие, което увеличава многократно риска от нейното използване.

Дефиницията за СИИ трябва да съдържа елементи, които я характеризират и я отличават както от човека, така и от други дигитални машини. Наред с това, дефиницията трябва да бъде ясна и конкретна, да не ограничава развитието на технологиите, но и да бъде достатъчно обща и гъвкава, за да е приложима за всяка такава система днес и напред във времето.

Това определено е трудна задача. Но е задача от жизнено важно за човека значение.

Понятието за система с изкуствен интелект следва да бъде ясно определено, за да се гарантира правна сигурност, за да се регламентират границите на нейните действия (и бездействия) и евентуално отговорността за вреди.

Система с изкуствен интелект: дефиницията е (не)възможна

Независимо че дефинирането на СИИ е въпрос от ключово значение, изработването на общоприето легално определение все още е отворена тема и е обект на множество дискусии.

Трудностите при създаването на всеобхватно определение за СИИ са свързани с неговия комплексен и сложен характер, като в основата на проблема е липсата на единно мнение както в теорията, така и в практиката по основополагащи въпроси за това какво точно представлява изкуственият интелект.

В най-общ план СИИ могат да бъдат представени като аналитични системи, създадени от човека. Но понятието „система с изкуствен интелект“, може да се разглежда в тесен и в широк смисъл. В широк смисъл СИИ  се определя като част от науката, която е свързана с компютрите и роботите[2]. Но това не предоставя достатъчно ясна информация за спецификата им. Затова, в тесен смисъл, СИИ може да бъде определена като компютърна система, способна да възприема и да тълкува данни от външната среда, да се учи, да използва натрупания опит, за да изпълнява специфични задачи, както и да бъде достатъчно гъвкава, за да се адаптира към външните условия[3].

По отношение на тази дефиниция, следва да бъде отбелязано, че макар да не е официално възприета като легална, все пак може да се твърди, че тя обхваща повечето от основните характеристики на системата с изкуствен интелект. И все пак тя не съдържа очевидни гаранции за правата на човека, а е насочена към самата СИИ. В идеалния случай дефиницията за СИИ трябва включва основните качества на една интелигентна система, но и да ги подведе по един общ знаменател – да бъдат в полза на човека и да не го застрашават.

На този етап все още няма единодушие за това какво представлява СИИ, вероятно защото учените са склонни да се обединят около идеята, че истинският изкуствен интелект, който не зависи от човека, все още не се е появил.

Това е една от ключовите причини за липсата на ясна дефиниция. Дори и роботите, които много приличат на хора, на практика все още не отговарят на това предизвикателство, защото боравят с предварително зададени алгоритми, които използват, но не създават сами. Те са свързани с облачни системи, създадени и управлявани от хора.  В този смисъл, макар и да се самообучават, СИИ не могат да излязат извън подкрепата на човека и създадените от него алгоритми, благодарение, на които те вземат автоматизирани решения.

Макар компютрите да надвишават многократно скоростта и паметта на човешките същества, все още няма програми, които да отговарят на човешката гъвкавост в по-широки области или в задачи, изискващи много ежедневни познания. От друга страна, някои програми са постигнали нивата на производителност на хората при изпълнение на определени специфични задачи и дори ги надминават, така че изкуственият интелект в този ограничен смисъл, е внедрен в толкова разнообразни приложения като медицинска диагностика, компютърни търсачки и разпознаване на глас или ръкопис[4]. Тези характеристики на СИИ обаче не ги приближават, а по-скоро ги отдалечават и разграничават от човека, открояват ги като различен тип субект.

Важно условие за работеща дефиниция е тя да бъде ясна, разбираема и да отразява основните характеристики на СИИ.

Трудността да се дефинира СИИ се състои на второ място в определянето на отправната точка на тази дефиниция, защото роботите са много и различни едни от други, а също така са различни от хората. По тази причина дефиницията трябва да отрази генералните характеристики, които са общи за всички СИИ и открояват тяхната уникална природа.

Едната възможност е дефиницията за СИИ да бъде изградена на базата на сравнение с човека и така интелигентната машина да бъде разглеждана като система, която е способна да изпълни всяка интелектуална задача, която е възможна и за човека. Тогава СИИ може да бъде определена като система, която може да прилага когнитивни функции т. е да се самообучава за извършване на специфични функции, обичайно осъществявани от хора. При тази възможност СИИ се основават на възможностите на човека като в много отношения ги надхвърлят, но в други са несъвместими.

От друга страна, сравнението на СИИ с човека не е съвсем подходящо, защото дефиниции, които се основават на сравнение между качествата на робота и качествата на човешката личност, които СИИ надхвърлят в някои отношения, водят до противопоставяне между тях.

Подобни дефиниции поставят човека в центъра на определението на СИИ и неизбежно са изградени на търсенето на разликите между него и машината.

Пример за такава дефиниция на изкуствения интелект е, че чрез него машините правят неща, които биха изисквали интелигентност, ако бяха направени от човек[5].

Друг пример за дефиниция, ориентирана към човека, е тестът на Тюринг, който се преминава от компютър, веднага щом изпълни задача, която иначе би изисквала човешка  интелигентност[6]. Тестът на Тюринг е обект на критики, но предлага интересен подход, при който не проверява директно дали компютърът се държи интелигентно. Тества само дали компютърът се държи като човешко същество.

Тъй като човешкото поведение и интелигентното поведение не са едно и също нещо, тестът може да не измери точно интелигентността. Тестът на Тюринг изисква машината да може да изпълнява всеки тип човешко поведение, независимо дали е интелигентно. Той дори тества за поведение, което може да не се счита за интелигентно, като податливостта към обиди, изкушението да се лъже или просто високата честота на грешки при писане. Ако една машина не може да имитира тези неинтелигентни поведения в детайли, тя се проваля на теста.

Според мен понастоящем остава открит въпросът за това дали машините с изкуствен интелект следва да се съизмерват с човека, при условие, че е ясно, че те не притежават една много важна човешка характеристика – самосъзнанието. Един от важните проблеми, който все още не е решен, независимо от бурното развитие на системите с изкуствен интелект, е свързан именно с липсата на съзнание при роботите. Това отличава роботите съществено от хората – независимо от възможностите за самоусъвършенстване, машините с изкуствен интелект нямат усещане за себе си, нямат самосъзнание. Това, независимо от свърхспособностите на някои от тях, ги прави много различни от хората и насочва към поставянето им в друга категория субекти (например подобна на тази на юридическите лица).

Друг подход при дефинирането на СИИ е те да не се съизмерват с хората, защото е ясно, че те имат различни способности – могат да извършват повече и по-бързи операции, но не притежават някои иманентни за човека характеристики, като например съзнание, емоции, емпатия.

В свой доклад Съветът на Европа нарича тези дефиниции „рационалистични“, като най-известната такава дефиниция, според международната организация, е че СИИ е „агент, създаден от хора, който решава и извършва действия въз основа на своето възприятие“[7].

В случай, че се стигне до решение за предоставяне на правен статут на роботите (макар тази възможност да е обект на сериозни спорове и да е само хипотетична), най-правилно според мен би било, те да бъдат обособени в самостоятелна категория, различна от тази на хората и юридическите лица, като на тях им бъде предоставен самостоятелен статут на субекти sui generis[8].

В този смисъл си струва да се обмисли, дали не е по-правилно, вместо да изграждаме дефиницията за СИИ върху сравнение с качествата на човека, да я разглеждаме като различен субект, уникален и различен.

На следващо място трудността при дефинирането на СИИ се дължи на бурното развитие на технологиите и създаването на все по-съвършени роботи, различни по своите характеристики от предходните поколения.

Според Стюарт Ръсел и Питър Норвинг, СИИ могат да бъдат разделени на следните категории: 1) системи, които мислят като хора; 2) системи, които действат като хора; 3) системи, които мислят рационално; и 4) системи, които действат рационално[9].

В действителност изкуственият интелект може да бъде разделен на много подобласти, като машинно обучение, роботика, невронни мрежи, зрение, обработка на естествен език и обработка на реч. Има значително преплитане между тези самостоятелни области, а следва да имаме предвид, че СИИ черпи информация и от области, различни от компютърните науки, включително психология, невронауки, когнитивни науки, философия, лингвистика, вероятности,  логика, право[10].

Ако бъде разглеждан в тесен смисъл, изкуственият интелект, който съществува в момента, се използва за разпознаване на изображения, езиков превод и автономни превозни средства. Понастоящем машините се справят по-точно от хората при този тип задачи. В бъдеще изследователите се надяват да постигнат „изкуствен общ интелект“ (AGI). Това ще включва системи, които проявяват интелигентно поведение в редица когнитивни задачи. Според изследователите тези способности ще бъдат постигнати след десетилетия[11].

На следващо място, дефиницията на СИИ трябва да е достатъчно широка и гъвкава, за да обхване бъдещото им технологично развитие. Същевременно, дефиницията не трябва да бъде прекалено обща, защото тя трябва да дава възможност за преценка за това дали конкретна СИИ попада в нейния обхват.  Това не лесно, защото посоките на развитие на интелигентните системи не са докрай предсказуеми, особено при очакванията за автономно вземане на решения, самоообучение и самоусъвършенстване, т.е. налице е откъсване на системите от контрола на човека.

От една страна, самообучението на СИИ може да бъде разглеждано като самоусъвършенстване. То се постига чрез „статистически процес, който започва с набор от данни и се опитва да изведе правило или процедура, която обяснява данните или може да предскаже бъдещи данни”[12]. Това е различно от традиционния подход към изкуствения интелект, който включва програмист, който се опитва да преведе начина, по който хората вземат решения, в софтуерен код. По-голямата част от изкуствения интелект в света днес се захранва от машинно обучение. Понастоящем много системи за машинно обучение са много по-точни от хората при различни задачи – от шофиране до диагностициране на определени заболявания.

Съвременното самообучение на СИИ обаче все повече се основава на техника за машинно обучение, която използва структури, наречени „невронни мрежи“, които са вдъхновени от човешкия мозък. Невронните мрежи често се състоят от повече от 100 слоя, с голям брой единици във всеки слой, за да се даде възможност за разпознаване на изключително сложни и точни модели в данните[13].

Наред с това, дефиницията на СИИ следва да бъде ориентирана към бъдещето. Създателите ѝ трябва да могат да „предвидят“ посоката на развитие на роботите, така че тя да бъде приложима в контекста на бурното развитие на технологиите. И тук именно е налице съществено затруднение, заради трудно предвидимата посока, в която се развиват СИИ.

Ако все пак такава дефиниция бъде създадена, тя може да бъде рамката и основата на правното регулиране на въпросите, свързани с изкуствения интелект като осигури пропорционалност на регламентацията. Без да е необходимо да се стига до свръхрегулиране, основната цел е да се гарантира и да се повиши правната сигурност както за бизнеса, така и за хората, чрез задължителни мерки за предотвратяване на практики, които безспорно биха подкопали основните права на човека или биха изкривили пазарните принципи и конкуренцията[14].

Веднъж създадена, дефиницията ще бъде отправна точка в правната уредба и ще определи основната линия на регулацията като насочва към възможности за ефективност, прозрачност, последователност и защита на правата на човека. Самата правна уредба следва да се развива не само на национално ниво, а националните норми да са в съответствие с международноправните стандарти.

Едно от най-важните изисквания към дефиницията за СИИ е тя да съдържа гаранции за защита на човешката личност от посегателства и нарушения от страна на СИИ. Това е ключово изискване, за да може дефиницията да се използва като своеобразен стандарт, под който една машина с претенции за изкуствен интелект не може да се намира. Липсата на гаранции, че СИИ зачита основните права на човека и действа в съответствие с етични принципи, гарантиращи безопасността на хората, би следвало да означава, че машината не е СИИ.

Тестът за защита на правата на човека трябва да е неразделна част от проверките за сигурност и надеждност на всяка система с изкуствен интелект.

По-конкретно, определението на СИИ следва да поставя в основата си гаранция за безопасността на хората, здравето и сигурността, свободата, неприкосновеността на личния живот, интегритета и достойнството, както и самоопределянето и недопускането на дискриминация и защитата на личните данни[15]

Не на последно място, дефиницията трябва да заложи на основните характеристики за предвидимост във взаимоотношенията между хората и роботите, които да са насочени към съвместна дейност, позитивно взаимодействие и сътрудничество. Така развитието на СИИ може да бъде насочено изцяло в посока на подобряване на живота на хората, без да се ограничава развитието на технологиите.

Всичко това безспорно насочва научното търсене към универсална дефиниция. Нейната „универсалност“ следва да се приема не само като единна гледна точка към правните характеристики на СИИ. Тук става въпрос за необходимостта от регулиране на въпросите, свързани с правния статус, функциите и отговорността. Това регулиране следва да се случва на възможно най-високо ниво за създаване на универсални международноправни стандарти, които да бъдат предвидени също на регионално ниво и на национално ниво. Именно съществуването на норми на международно ниво, които да унифицират националната правна уредба, могат да гарантират единен подход за закрила на човешката личност и ефективна защита на нейните права.

Всичко изброено до тук прави задачата по създаване на общоприета легална дефиниция много трудна. Защото освен пълна, обща и всеобхватна, дефиницията трябва да бъде ясна и разбираема. И по възможност кратка. И да съдържа най-характерните елементи на СИИ, които я поставят в самостоятелна категория. Това основателно поставя въпроса възможно ли е изобщо да бъде постигната тази цел?

(Не) възможните дефиниции

Все пак, независимо от трудностите, следва да бъде отбелязано, че опити за дефиниции съществуват както от страна на отделни учени, така и в рамките на документи, създаден от международни организации. Като цяло те се основават на изброяване на основни характеристики, които са общи за всички СИИ, и които надминават компютрите с висока ефективност на действията си.

Прегледът на дефинициите за СИИ показва, че голяма част от тях са изградени на основата на съвкупност от качества, присъщи за човека.

Пример за такава дефиниция е, че СИИ е симулация на човешкия интелект в машини, които са програмирани да мислят като хората и да имитират техните действия[16]. Според автора терминът СИИ може да се приложи към всяка машина, която проявява черти, свързани с човешкия ум, като учене и решаване на проблеми.

Според експерти при определяне на СИИ могат да бъдат идентифицирани четири широки подхода: да действа човешки (тест на Тюринг), да мисли човешки (моделиране на когнитивно поведение), да мисли рационално (надграждайки със средствата на логиката) и да действа рационално (подход на рационалния агент, който не зависи от конкретно разбиране на човешкото познание или изчерпателен модел на това какво представлява рационалната мисъл)[17].

Съветът на Европа също има свои варианти на дефиниция за СИИ. В нея понятието СИИ се използва като родово понятие за съвкупност от научни области, теории и техники, посветени на  подобряване на способността на машините да извършват дейности, изискващи интелект[18]. По-конкретно, СИИ са системи, които се основават на машини, които могат да правят препоръки, предвиждания или да вземат решения за определен набор от цели. Това се случва чрез използването машини и/или хора за възприемане на реално съществуваща или виртуална среда; ръчно или автоматично извеждане на такива възприятия в конкретни модели и извличането на заключения от тези модели, било чрез хора или машини под формата на препоръки, предвиждания или решения.

По-конкретно, в свое изследване Съветът на Европа определя СИИ като „съвкупност от технологии с общо предназначение които използват техники от статистиката, компютърните науки и когнитивната психология, за да позволят на машините да изпълняват ефективно много сложни задачи“[19]. Тези технологии имат за цел да възпроизведат или да надхвърлят способности, които биха изисквали „интелигентност“ при хората – например разсъждение, автономност, креативност.

От своя страна, в съобщението на Европейската комисия (ЕК) относно Стратегията за изкуствения интелект от 2018 г., ЕК дефинира СИИ като системи, които показват интелигентно поведение, като анализират своята среда и – с известна степен на самостоятелност – предприемат действия за постигане на конкретни цели[20]. Според ЕК, базираните на ИИ системи могат да бъдат изцяло софтуерни – действащи във виртуалния свят (напр. гласови асистенти, софтуер за анализ на изображения, търсачки, системи за разпознаване на глас и лица), а могат и да бъдат внедрени в хардуерни устройства (напр. усъвършенствани роботи, автономни автомобили, дронове или приложения за „интернет на нещата“).

Важно значение за правната уредба има и Регламентът за защита на личните данни, защото сериозен брой нарушения на права на хората са свързани със злоупотреба с лични данни, до които СИИ имат достъп.

В Бялата книга на ЕК за изкуствения интелект също е направен опит за дефиниране на СИИ. Според нея изкуственият интелект е съвкупност от технологии, които обединяват данни, алгоритми и компютърни мощности[21].

Експертната група на високо ниво на ЕС по изкуствения интелект предостави през 2019 г. дефиниция, според която „системите с изкуствен интелект са софтуерни (и вероятно също хардуерни) системи, проектирани от хора, които, като се има предвид сложната цел, действат във физическо или цифрово измерение, като възприемат средата си чрез събиране на данни, интерпретират събраните структурирани или неструктурирани данни, разсъждават върху знанията или обработката на информацията, извлечена от тези данни и вземането на решение за най-доброто(ите) действие(я), които да предприемете за постигане на дадена цел.“ Системите за изкуствен интелект могат или да използват символни правила, или да научат числов модел, а също така могат да адаптират поведението си, като анализират как околната среда е повлияна от предишните им действия[22].

В предложението на ЕК за регламент за изкуствения интелект, чл. 3 от проекта предлага определение на СИИ, което да се прилага за целите на този законодателен акт. Според него СИИ означава „софтуер, разработен с една или повече от техниките и подходите, посочени в приложение I, който може по отношение на даден набор от цели, определени от човек, да генерира резултати, като съдържание, прогнози, препоръки или решения, които оказват въздействие върху средите, с които взаимодействат“. Приложение I, съдържа подробен списък на подходите и техниките за развитието на ИИ, които Комисията ще адаптира в съответствие с технологичните новости.

Според работната група, сформирана от ЕК да работи върху дефинирането на СИИ, дефиницията на изкуствения интелект е свързана с интелекта, макар той да е доста неясно понятие дори и при хората. Така те приемат, че изкуственият интелект „се отнася до системи, които проявяват интелигентно поведение, като анализират заобикалящата ги среда и предприемат действия – с известна степен на автономност – за постигане на конкретни цели. Според работната група системите, базирани на ИИ, могат да бъдат чисто софтуерни, действащи във виртуалния свят (напр. гласови асистенти, софтуер за анализ на изображения, търсачки, системи за разпознаване на реч и лица) или ИИ може да бъде вграден в хардуерни устройства (напр. усъвършенствани роботи, автономни автомобили, безпилотни летателни апарати или приложения на интернет на нещата).“[23]

Според друга дефиниция, СИИ е свързан със способността на цифров компютър или компютърно управляван робот да изпълнява задачи, които обикновено се свързват с интелигентни същества[24]. Това определение често се използва за системи, извършващи интелектуалните процеси, характерни за хората, като способност за разсъждение, откриване на смисъл, обобщаване или учене от минал опит.

Тъй като тези системи се учат динамично и интерактивно от своята среда, която сама по себе си често е променлива и непрекъснато променяща се, това има последици за стабилността и предсказуемостта на тяхната работа.

Макар дефинициите за системите с ИИ да са различни, в тях има общи характеристики, които неизменно се повтарят и това ги прави основополагащи и определящи за същността на определяния субект. Една от най-съществените сред тях е способността на системата с ИИ да се самообучава, т.е. да подобрява своята дейност, без да е нарочно програмирана за това[25], като е допустимо този процес на самообучение да бъде контролиран или ръководен[26]. Нещо повече, един от въпросите е, дали машините могат да мислят и то без да им бъдат зададени команди в тази посока. Така, най-общо „машинното обучение“ означава способността на компютъра да подобрява производителността си, без да е специално програмиран за това[27].

Наред със самообучението, важно значение за определянето на един компютър като СИИ имат и други когнитивни способности, свързани с мотивирането на решенията и способността за поправяне на собствени грешки[28]. Ако в основата на тези процеси са алгоритмите, това би означавало, на първо място, събиране на данни и създаване на правила за поетапно обработване на информацията (алгоритми) за постигане на конкретна цел; на второ място – самостоятелен избор на алгоритъм за постигане на целения резултат; и, на трето място – внасяне на промени в алгоритмите, ако е необходимо, така че те да постигнат целта, която е поставена.

В този смисъл, следва да бъде отбелязано, че едни от най-важните въпроси, които следва да бъдат решени, е от къде се учат тези роботи и кой изначално определя алгоритмите им[29].

В основата на машинното самообучение на СИИ е тяхната способност да се учат от примери, данни и опит, както и да автоматизират изпълнението на задачите, да вземат решения и да изпълняват тези задачи до известна степен независимо от своите човешки създатели[30]. Според Съвета на Европа част от критериите за самообучение и надграждане при СИИ трябва да се променят с времето, да си поставят свои подцели, да се адаптират към местната среда чрез сензори за външна информация или чрез обновяване на данните, с които разполагат. Основната идея е създателите на тези машини да вземат решение относно първоначалните параметри и общата цел, която роботите следва да оптимизират. Същевременно системите за обучение са настроени така, че да вземат самостоятелни решения, които са избирани измежду алтернативни възможности, по начин, който не е предварително програмиран и не предполага човешка намеса.

Определението за СИИ следва да взема предвид ключовите функционални характеристики на софтуера, по-специално на способността за определен набор от цели, дефинирани от човека, да се генерират крайни резултати, като съдържание, прогнози, препоръки или решения, които оказват влияние върху средата, с която системата си взаимодейства, било то във физическо или цифрово измерение. Интелигентните машини могат да бъдат проектирани да функционират с различна степен на автономност и да се използват самостоятелно като компонент на продукт, независимо дали системата е физически интегрирана в продукта (вградена) или обслужва функционалността на продукта, без да бъде интегрирана в него (невградена).

ЕК, например, в своя проект за регламент (Регламент за изкуствения интелект) приема, че определението за СИИ следва да бъде допълнено от списък със специфични техники и подходи, използвани за нейното разработване, който да се актуализира с оглед на пазарните и технологичните промени чрез приемането на делегирани актове от ЕК за изменението на този списък[31]. Подобен списък обаче следва да бъде достатъчно гъвкав и отворен за промени, тъй като трябва да бъде осъвременяван практически непрекъснато и да обхваща новите технологии. Доколкото регламентът предвижда създаването на списък със забранени системи с изкуствен интелект, непрекъснатото му актуализиране е от съществено значение, защото те ще бъдат включени в списъка и обявени за неприемливи именно заради изключително високо ниво на риска от нарушаване на правата на човека.

Основа за изработването на дефиниция на СИИ могат да бъдат и основните характеристики, които ги определят именно като такива. Те се основават на разграничението на два вида СИИ – общи (или силни), които са в състояние да изпълнят всяка интелектуална задача, която човек би могъл и „специфични“ („тесни“) системи, които могат да прилагат когнитивни функции към специфични задачи, които обикновено се поемат от човек.

Следва да бъде отбелязано, че динамичното усъвършенстване на СИИ не съдържа гаранции, че посоката в която ще те се развиват, ще е изцяло в интерес на човека и че неговите права ще бъдат напълно защитени.

От една страна е безспорно, че СИИ са бързо развиваща се съвкупност от технологии, които могат да донесат множество икономически и социални ползи по протежение на целия спектър от промишлени отрасли и социални дейности[32].

От друга страна обаче, това динамично развитие крие и редица рискове. Според Съвета на Европа, СИИ имат потенциала да се развиват по неочаквани начини[33]. На потенциалните рискове се спира и ЕК, която обръща внимание на факта, че използването на интелигентни машини може да доведе до нови рискове или отрицателни последици за отделните лица или обществото. Сред потенциалните рискове, могат да бъдат отбелязани липсата на прозрачност на процеса на вземане на решения, дискриминация, нарушаване на правото ни на личен живот, злоупотреба с лични данни или престъпна употреба на СИИ[34].

В свое изследване Съветът на Европа отбелязва, че използването на изкуствен интелект може да подпомогне постигането на резултати, които са благоприятни за обществото и околната среда, за бизнеса и икономиката, но същевременно се обръща внимание на факта, че това може да доведе и до нови рискове или отрицателни последици за отделните лица или обществото[35].

Това е и следващата причина за трудността при създаване на дефиниция за СИИ – те се прилагат в стотици сфери на живота: автомобилите, телефоните, умните къщи, биометрично (включително лицево) разпознаване, разпознаване на обекти, прогнозиране на риска и успеха, алгоритмично вземане на решения или поддръжка, автоматичен превод, препоръчителни системи. Тези приложения са намерили своя път в сектори като правоприлагане, правосъдие, управление на човешките ресурси, финансови услуги, транспорт, здравеопазване, обществени услуги и много други сфери на живота, които понякога приемаме за даденост и дори не отчитаме факта, че отдавна живеем с роботи.

Не на последно място дефинирането на понятието СИИ е трудно и защото то трябва да вземе предвид редица стандарти, както професионални, така и етични.

Опитите за регулиране на тези въпроси са включени в Насоките за етичните аспекти за надежден СИИ от 2019 г., разработени от ЕК[36]. Едно от основните изисквания към изработването на такива системи е те да са надеждни и да служат за по-добрия живот на хората и на тяхното благосъстояние.

В документа са  формулирани три основни характеристики, на които следва да отговаря всеки ИИ през целия си жизнен цикъл:

  1. Да бъде законосъобразен, като се придържа към всички приложими законови и подзаконови актове;
  2. Да бъде етичен, като гарантира зачитането на етичните принципи и ценности;
  3. Да бъде стабилен от техническа и от социална гледна точка, тъй като е възможно СИИ да причинят неумишлено вреди.

Всяка от характеристиките сама по себе си е необходима, но не е достатъчна за постигането на надеждна СИИ.

Според Насоките на ЕК в идеалния случай и трите характеристики следва да са в синхрон и се да се припокриват при своето функциониране. Ако между тези характеристики на практика възникнат противоречия, те следва да бъдат изгладени[37].

Документът с насоките за етика има важен принос за установяване на рамката за осигуряване на надеждни СИИ. Той формулира конкретни етични принципи, на които те следва да отговарят от началото до края на своето съществуване. Сред тях са зачитане на автономността на хората, предотвратяване на вреди, справедливост и обяснимост, като се обръща специално внимание на засягането на уязвими групи – деца, хора с увреждания, хора в неравностойно положение.

Важно значение има и фактът, че насоките обръщат внимание на рисковете и на трудно предвидимото въздействие на СИИ върху демокрацията, принципите на правовата държава и справедливостта при разпределението на ползите и потенциалните рискове или върху самия човешки ум[38].

На основата на направените изследвания, насоките за етични аспекти на СИИ предлагат седем изисквания (ключови насоки), на които системите с ИИ да отговарят. Сред тях са изискванията за: човешки фактор и надзор, техническа стабилност и безопасност, управление на данните и неприкосновеност на личния живот, многообразие, недискриминация и справедливост, екологично и обществено благополучие и отчетност. Изисквания са също и прозрачност, предоставяне на информация, проследимост и одитируемост на системите с ИИ .

Следва да бъде отбелязано, че изискването за прозрачност на СИИ е от съществено значение за дейността им. Нещо повече: СИИ не могат да бъдат надеждни, ако не са прозрачни. Те не могат да бъдат проследими, отчетни и одитируеми и следователно не може да има гаранции, че са безопасни за хората. Затова прозрачността е ключов момент в процеса на разработване и използване на СИИ.

Прозрачността следва да бъде разглеждана в няколко аспекта.

На първо място, процесът на създаване на алгоритмите трябва да бъде прозрачен. На този етап, дори и при наличието на системи за мониторинг, държавните органи, включително органите за защита на основните права, много трудно могат да осъществят наблюдение, с което да направят заключение дали използваните алгоритми са създадени при спазване на правата на човека, защото самият процес на създаването на алгоритмите не е прозрачен. От една страна, програмистите често не са наясно със стандартите за защита на основните права, от друга страна – те не са формално задължени да ги прилагат при разработването на алгоритмите. Наред с това е много трудно да бъде установено какви стандарти за защита на правата на човека са били използвани при разработването на алгоритмите.

На второ място, прозрачността е свързана със самия процес на използването на СИИ и тяхната работа. Хората трябва да бъдат информирани, че при вземане на решение или предоставяне на услуга е използвана система с изкуствен интелект. Така например, ако решението е взето от човек, но със съдействието на СИИ, за тях трябва да бъде ясен не само този факт, но и степента, в която то е било повлияно от СИИ, както и цялостният процес на вземане на решение. Това изисква пълна прозрачност на механизмите за вземане на решения.

СИИ следва да бъдат идентифицируеми като участници в процеса на вземане на решения – трябва да е ясно, че участват, както и кое е лицето, което отговаря за тях[39].

По този начин прозрачността дава възможност за проследимост на работата на СИИ, която е задължителна за ефективния контрол от страна на хората. Според ЕК проследимостта се отнася както до решенията, които СИИ взема, така и до целия процес – включително описание на събраните и използвани данни и описание на използваните алгоритми[40].

Добра практика в това отношение е създаването на публичен регистър на СИИ, използвани в публичния сектор на всяка държава.

На трето място, следва да е налице и прозрачност при вземането на решения от  СИИ, т.е. как интелигентната машина е стигнала до съответното решение и какви са аргументите за него. В тази връзка процесът на алгоритмичното вземане на решение трябва да бъде разбираем за човека, до когото се отнася. Това изискване е важно в контекста на осъществяването на контрол върху интелигентните системи от страна на администрацията или от съда.

За хората, които са адресати на решението, прозрачността е важна, за да могат да го разберат и да се защитят, ако например решат да го обжалват. Затова е от съществено значение решенията на СИИ да бъдат мотивирани и липсата мотиви следва да води до тяхната нищожност (както при актовете на администрацията и на съда).

Не на последно място, прозрачността е важна и при обжалването на решенията на СИИ. От една страна, за адресата на решението, който следва да може да организира ефективно своята защита като е наясно с аргументите за отказ. От друга страна – за по-горестоящия административен орган или за съда – те не могат да упражнят контрол и да преценят дали решението е законосъобразно и справедливо, ако не са наясно с мотивите му.

Например ако СИИ са използвани за подбор и назначаване на персонал – критериите трябва да са много ясни, а решенията мотивирани, за да не се допусне дискриминация и за да може решението да бъде обжалвано от потенциалния кандидат.

Липсата на прозрачност прави алгоритмичното вземане на решения неподходящо, защото може да доведе до нарушаване на основни права. Пример за това е вземането на решения от СИИ в сферата на социалното подпомагане. Подобно решение стана обект на съдебен спор в Нидерландия като Окръжният съд в Хага прие за недопустимо използването от нидерландското правителство на алгоритъм за идентифициране на потенциални измами в областта на социалното подпомагане, защото нарушава правото на личен и семеен живот. По-конкретно, през м. февруари 2020 г. Окръжният съд в Хага постанови решението си по делото NCJM и др. и FNV срещу Нидерландия („SyRI“) и постанови, че нито законодателството, уреждащо System Risk Indication (SyRI), нито използването му, отговарят на изискванията, посочени в чл. 8, §2 от ЕКПЧ, за да бъде намесата в упражняването на правото на личен живот необходима и пропорционална. Това е едно от първите съдебни решения в света, в което се разглеждат последиците за правата на човека от дейността на СИИ в публичния сектор, в което съдът се произнася за задължението на държавата да осигури прозрачност на процесите, свързани с използването на СИИ.

Основание на съда да вземе подобно решение е, че „инициативите на цифровата социална държава не отговарят на основните изисквания за законност и защита от произвол. Освен това умишлената непрозрачност, свързана с прилагането на алгоритми в публичния сектор, не само пречи на ефективното упражняване на правата на човека, но и подкопава административния и съдебния надзор“[41].

В този смисъл следва да бъде отбелязано значението и взаимното допълване на три правни регулаторни рамки, регулиращи алгоритмичните системи: защитата на данните, защитата на правата на човека и алгоритмичната отчетност. Според съда в Хага липсата на прозрачност и информация за това как работи СИИ препятства възможността на хората да оспорят нейните решения и в този смисъл препятства достъпа им до съд и до ефективна съдебна защита. Друго важно заключение на Окръжния съд е за дискриминационния ефект от дейността на алгоритмичната система.

Правата на човека като вградена защита в дефиницията за СИИ

Решението на Окръжния съд в Хага дава ясен отговор на въпроса допустимо ли е използването на алгоритмични решения, ако те не зачитат стандартите за правата на човека. По силата на това решение нарушенията на основните права от СИИ следва да ги определят като негодни за използване, без значение дали отговарят на други условия като самообучение или симулиране на човешки интелект.

От всичко казано до тук се налагат два основни извода. На първо място, дефиницията за изкуствен интелект трябва задължително да реферира към правата на човека и тяхната защита и по-конкретно да съдържа изискване за вградена защита на правата на човека. И на второ място – на този етап това все още не е постигнато.

Включването на защитата на правата на човека в дефиницията за СИИ означава, че една система от алгоритми може да бъде определена като система с изкуствен интелект само ако, наред с останалите критерии, покрива и критерия за вградени стандарти за защита на основните права, например вградена защита срещу дискриминация, срещу нарушения на правото на личен и семеен живот или събиране и обработване на лични данни. Например, при тестването на СИИ в тестваната група следва да бъдат включени хора от уязвими групи, с различен профил, за да бъде установено какъв е ефектът от прилагането върху тях

Тази защита трябва да бъде незаобиколима за СИИ и да е налице от самото начало на създаването на съответния алгоритъм и на самата технология. Наред с това тя трябва да съществува през целия ѝ жизнен цикъл: създаване и разработване, дизайн, кодиране, тестване, внедряване, разпространение и ползване.

Подобна концепция, сходна с концепцията за вградената защита на личните данни, безспорно е съответствие и с Първия принцип на роботиката, че роботът не може да навреди на човешко същество чрез действие или бездействие.

В този смисъл сред елементите на дефиницията за алгоритъм и СИИ следва да бъде включена и „вградена защита на основните права на човека“.

С основание може да се твърди, че алгоритмите са новите правни норми и затова процесът на тяхното създаване трябва да отговаря на същите правила, на които отговаря създаването на традиционните норми. В този смисъл, например в България (както и в другите държави членки на Съвета на Европа), съществува нормативно установено задължение за проверка на съответствието на всеки проект на нормативен акт с ЕКПЧ. Това изискване се прилага както за проектозаконите на Министерския съвет, така и за законодателните предложения на народните представители (с изключение, за съжаление, на предложенията за изменение и допълнение, предложени между първо и второ четене).

По същия начин, всеки алгоритъм би следвало да съответства на разпоредбите на основните международноправни актове за защита на правата на човека (например на Всеобщата декларация за правата на човека, на пактовете и конвенциите на ООН, на ЕКПЧ, на Хартата за основните права на ЕС и т.н.) и да ги взема предвид в своята работа. С оглед защитата на основните права всяка създадена СИИ следва да бъде оценявана и по този критерий преди да бъде внедрена.

По този начин внедрената защита на правата ще се превърне в част от дефиницията за СИИ и ще стане незаобиколим фактор за разпространението ѝ. Безспорно това не е достатъчна гаранция, че СИИ няма да наруши права на хората, защото СИИ води до много голяма промяна в средата, в която живеем и много от рисковете са все още неизвестни. Може да се твърди обаче, че тази минимална защита е основата, върху която да се надгражда.

Затова този минимум на защита трябва да се превърне в condicio sine qua non за съществуването на алгоритмите и СИИ.

От друга страна, смисълът на дефинирането на СИИ е свързан и със създаването на рамка, която да бъде основа за преценка за това дали съответната система може да бъде внедрена и използвана. Това е своеобразен стандарт, който унифицира и в който всеки алгоритъм трябва да се впише, за да бъде определен по този начин.

Възможно е да се окаже, че във връзка с навлизането на СИИ  практически във всички сфери на живота, е необходимо да се направят изменения и допълнения в действащото законодателство за защита на правата на човека, за да се гарантира защита в условията на новата дигитална среда. Не е изключено хората да придобият нови права или да бъдат установени нови, непознати нарушения, които да бъдат регламентирани и обявени за недопустими.

Следва да бъде отбелязано, че наблюдението върху СИИ трябва да продължи през целия цикъл на неговото съществуване, защото заради умението си да се самообучават и да надграждат, СИИ могат да се променят. Налице са много примери за чатботи, например, които проявяват девиации именно в хода на прилагане и то защото се учат от хората, с които общуват. Честа проява е използването на език на омразата и груб език.

Пример в това отношение е чатботът Тай, създаден от Майкрософт, който беше спрян в рамките на първите 24 часа след появата си, защото започна да използва расистки коментари и да подкрепя нацистки идеи. Очевидно при изработването на неговите алгоритми, създателите не са предвидили филтри, които да оценяват подобни идеи през призмата на стандартите за права на човека. Още по-драстичен е примерът с чатботът Елиза, който подтикна белгиец към самоубийство в хода на разговори за състояние на тревожност във връзка с климатичните промени, в което той се е намирал[42].

Това са примери за СИИ, които са били тествани и одобрени за използване, но са развили непредвидени отклонения, които се проявяват едва при използването и в хода на общуването с хора. Очевидно расистките идеи и насърчаването на насилие са привлекателни и за машините, които макар да нямат емоции, се стремят да ги имитират. Така те копират, но и насърчават някои от най-силните чувства на хората като омраза и нетърпимост към различните.

Очевидният въпрос тук е и кой носи отговорност за чатбота и последиците от неговата намеса в живота на човек, който явно е бил манипулиран в уязвимата позиция, в която се е намирал. Доколкото на този етап СИИ не са субекти на правото и не могат да носят отговорност или да обезщетят вредите, които са нанесли, отговорността следва да бъде понесена от създателите на Елиза.

Не бива да забравяме и споделената отговорност на онези, които е трябвало да контролират дейността на чатбота и периодично да тестват неговото ниво на самообучение, за да не допуснат задълбочаване на проблема, след като веднъж се е появил.

Според мен липсата на изрично регламентиране на задължение за контрол и мониторинг не може да изключи отговорността на производителя и на този, който е допуснал употребата на СИИ, защото това е високорискова дейност и трябва да бъде обект на специален надзор от страна на тези, които я внедряват, както и от страна на държавата. По тази причина контролът трябва да включва и периодичен анализ на риска.

Не на последно място, с оглед на персонализиране на отговорността е важно да бъде установено кои са държавните органи, които имат задължение да упражняват контрол. Често се оказва, че такива просто не са определени в нито един нормативен акт.

Може да се твърди, че самообучението на интелигентните машини е характеристика, която ги дефинира, но макар да е важна за тяхното усъвършенстване, то носи рискове, защото СИИ могат да използват данни, които са непълни, ненадеждни, пристрастни или просто грешни. Затова проверката (наблюдението) е за това дали една СИИ се вписва в дефиницията и нейните основни елементи трябва да  се осъществява непрекъснато.

Една от възможностите за проверка в практиката е чрез „регулаторните пясъчници“, възприета през април 2021 г. от Европейската комисия и от Европейския парламент и включена в Регламента за изкуствения интелект като възможност за тестване на СИИ в практиката[43]. В чл. 53 и 54 Регламентът предвижда създаването на координирани регулаторни пясъчници на национално ниво (за една или няколко държави членки) за тестване на системи с изкуствен интелект като специфична мярка, подкрепяща иновациите. Държавите следва да приемат законодателство в тази област и да го прилагат. Първият „регулаторен пясъчник“ тестване на СИИ в регулирана среда е създаден и приложен в Испания през м. юни 2022 г.[44]

Следва да бъде отбелязано, че концепцията за „регулаторните пясъчници“ не е нова. Тя отдавна се прилага в бизнеса за тестване на редица иновативни дигитални продукти, например за дигиталните финансови технологии (дигиталните финансови портфейли, дигиталните идентификационни технологии), за транспортните иновации (дигиталните автоматизирани автомобили), телекомуникациите (5G мрежите). Те имат две основни цели: първо да провери иновациите в реална среда и второ, преценка на нуждата от законодателни промени в тази област.

И все пак следва да бъде отбелязано, че използването на „регулаторни пясъчници“ не е механизъм за освобождаване от отговорност на производителите, ако при използването на СИИ настъпят вреди.

Заключение

Мнозина вероятно ще кажат, че въпросът за дефиницията на СИИ не е най-важният, че е трудно да бъде дефинирано нещо, което е толкова комплексно и сложно, че дефиницията ще ограничи динамичното развитие на роботите. Всичко това е вярно, но също така е истина, че наред с многобройните ползи за човека СИИ носят и непредвидими рискове за неговите основни права.

Затова дефиницията не бива да се разглежда като ограничение, а като среда с базови критерии, без които СИИ не могат да бъдат определени като такива. Става въпрос за минимални характеристики, при липсата на които една система не може да бъде третирана като изкуствен интелект. Дефинирането прави обекта познаваем и го ограничава от други, макар и подобни на него.

Все още няма общоприета дефиниция на СИИ, но основните характеристики, които следва да бъдат включени в нея до голяма степен са ясни. Те могат да бъдат открити във всяко определение, независимо от гледната точка или целта на дефинирането.

Следва да бъде отбелязано, че сред основните изисквания за надеждна дефиниция на този етап не са предвидени стандартите за защита на основните права на човека. А те имат много съществено значение с оглед безопасността и надеждата, че бъдещето принадлежи на хората, а не на машините.

„Кодирането“ на основните права и тяхната защита следва да бъде в основата на всеки алгоритъм като вграден генетичен код, който не може да бъде променян или манипулиран от СИИ в хода на нейното самообучение.

Човекът и неговото благосъстояние трябва да останат в центъра на технологиите с изкуствен интелект.

За да внушава доверие, всяка СИИ следва да бъде създадена и да работи в съответствие със закона и етичните стандарти, да ги прилага последователно и неотклонно, да бъде надеждна и да не допуска нарушения на основните права на хората. Различия като раса, език, цвят на кожата, възраст, пол или религия следва да бъдат съобразени на всеки етап от създаването и използването на СИИ[45].

Наблюдението и оценката на СИИ трябва да бъдат непрекъснати, за да внушават доверие и да не се допускат нарушения на права на хората.

[1] Вж. целия текст на писмото на https://futureoflife.org/open-letter/pause-giant-ai-experiments/. Всички интернет адреси са актуализирани към 30 март 2023 г.
[2] Вж. Ziemianin, K., Civil legal personality of artificial intelligence. Future or utopia?, Onternet Policy Review, University of Szczecin, Poland, Vol 10, Issue 2, 2021, https://policyreview.info/articles/analysis/civil-legal-personality-artificial-intelligence-future-or-utopia.
[3] Ibid.
[4] Вж. Copeland, B., Artificial intelligence. Encyclopedia Britannica, 2020,
ttps://www.britannica.com/technology/artificial-intelligence.
[5] Вж. McCarthy, J., What Is AI? Basic Questions, Jmc.Stanford.Edu, 2018, http://jmc.stanford.edu/articles/whatisai/whatisai.pdf
[6] Тъй като не може да измерва интелигентност, която е извън възможностите на хората, тестът не може да се използва за изграждане или оценка на системи, които са по-интелигентни от хората. Поради това са предложени няколко тестови алтернативи, които биха могли да оценят свръхинтелигентните системи. Тестът на Тюринг не тества високо интелигентно поведение, като например способността за решаване на трудни проблеми или извличане на оригинални прозрения, а изследва нейното поведение. Ако машината е по-интелигентна от човешко същество, тя трябва умишлено да избягва да изглежда твърде интелигентна, за да не я разпознаят. Ако трябва да реши изчислителен проблем, който е практически невъзможен за решаване от човек, тогава изследователят ще знае, че програмата не е човешка и машината ще се провали на теста. https://en.wikipedia.org/wiki/Turing_test.
[7] Вж. Ussell, S. J., Norvig, P., Davis, E., Artificial intelligence: A modern approach (3rd ed). Prentice Hall, 2010.
[8] По въпроса за правосубектността на системите с изкуствен интелект вж. Ковачева, Д., Новите субекти на правото – сред нас ли са системите с изкуствен интелект, сп. De Jure, т. 13, бр. 2, 2022, http://journals.uni-vt.bg/dejure/bul/vol13/iss2/.
[9] Вж. Anderson, L., Human rights in the age of the artificial intelligence, Access now 2016,  https://www.accessnow.org/wp-content/uploads/2018/11/AI-and-Human-Rights.pdf.
[10] Ibid.
[11] Committee on Technology, National Science and Technology Council, Preparing for the Future of Artificial Intelligence, (Executive Office of the President of the United States) 2016, p. 5,
 https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/ preparing_for_the_future_of_ai.pdf.
[12] Ibid.
[13] Ibid,  с. 9.
[14] Вж.  Резолюция на Европейския парламент от 20 октомври 2020 г. с препоръки към Комисията относно рамка за етичните аспекти на изкуствения интелект, роботиката и свързаните с тях технологии (2020/2012(INL)), Рамка от етични аспекти на изкуствения интелект, роботиката и свързаните с тях технологии. https://eur-lex.europa.eu/legal-content/BG/TXT/PDF/?uri=OJ:JOC_2021_404_R_0005&from=EN.  
[15] В този смисъл са и насоките в Резолюция на ЕП от 2017 г. https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_BG.html#title1.
[16] Вж.  Frankenfield, J., Artificial intelligence, 2021, https://www.investopedia.com/terms/a/artificial-intelligence-ai.asp.
[17] Вж. Silver, D., Schrittwieser, J., Simonyan, K.. Mastering the game of go without human knowledge. Nature Journal, pp. 354–359, 2017, https://doi.org/10.1038/nature24270.
[18] Вж.  Commissioner of Human Rights, Unboxing artificial intelligence: 10 steps to protect human rights, Council of Europe, 2019, https://rm.coe.int/unboxing-artificial-intelligence-10-steps-to-protect-human-rights-reco/1680946e64.
[19] Вж. Report of the Expert Committee on human rights dimensions of automated data processing and different forms of artificial intelligence (MSI-AUT), Responsibility and AI, rapporteur Karen Yeung, Council of Europe 2015, p.6, https://rm.coe.int/responsability-and-ai-en/168097d9c5.
[20] Съобщение на Комисията до Европейския парламент, Съвета, Икономическия и социален комитет и Комитета на регионите, Изкуствен интелект за Европа, 2018, https://eur-lex.europa.eu/legal-content/BG/TXT/?uri=CELEX%3A52018DC0237.
[21] Вж. White Paper on Artificial Intelligence. A European approach to excellence and trust, Brussels, 2020 COM(2020) 65.
https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf., с . 3
[22] Вж. EU High Level Expert Group on AI. A definition of AI, main capabilities and scientific disciplines, 2019.
https://ec.europa.eu/futurium/en/system/files/ged/ai_hleg_definition_of_ai_18_december_1.pdf.
[23] Ibid., p. 1.
[24] Вж. Copeland, B. Artificial intelligence. Encyclopedia Britannica, 2020,
https://www.britannica.com/technology/artificial-intelligence.
[25] В своята статия Artificial Intelligence and the Limits of Legal Personality, авторът обръща внимание на два интересни примера за подобно самообучаване на СИИ. Първият е от статията на David Silver et al., Mastering the Game of Go Without Human Knowledge, публикувана в списание Nature през 2017 г., в която той описва програмата AlphaGo Zero, която едва научила правилата на известната със сложността си настолна игра Go, използва тази базисна информация като развива иновативни стратегии, които й дават възможност да получи предимство пред хората.
[26] Вж. Chesterman, S., Artificial Intelligence and the Limits of Legal Personality, Vol 69, October 2020 pp. 819–844]  и  Murphy, K., Machine Learning: A Probabilistic Perspective.
Според Stuart Russell и Peter Norvig (в тяхната статия „Artificial Intelligence: а Modern Approach с. 1-5, 3d ed. 2010) могат да бъдат идентифицирани четирите различни подхода: да се действа човешки (известният тест на Тюринг), да се мисли човешки (моделиране на когнитивното поведение), да се мисли рационално (въз основа на логическата традиция) и да се действа рационално. Въпреки че голяма част от литературата се фокусира върху „общия“ или „силния“ изкуствен интелект (което означава създаването на система, способна да изпълнява всяка интелектуална задача, която човек би могъл да изпълни), в тази статия вниманието е насочено към по-непосредствените предизвикателства, породени от „тесния“ изкуствен интелект – т.е. системите, които могат да прилагат когнитивни функции към специфични задачи, типично изпълнявани от човека. Свързан термин е „машинно обучение“, подмножество на СИИ, което обозначава способността на компютъра да подобрява работата си, без да е специално програмиран за това.
[27] Вж. Murphy, P., Machine learning: a probabilistic perspective, 2012.
[28] Вж. Burns, E., Laskowski, N., What is artificial intelligence,  https://www.techtarget.com/searchenterpriseai/definition/AI-Artificial-Intelligence
[29] Вж. Building Trust in Human-Centric Artificial Intelligence, Brussels, 2019 COM(2019) 168, с. 5, https://digital-strategy.ec.europa.eu/bg/node/1951.
[30] Вж. Report of the Expert Committee on human rights dimensions of automated data processing and different forms of artificial intelligence (MSI-AUT), Responsibility and AI, rapporteur Karen Yeung, Council of Europe 2015, p.7, https://rm.coe.int/responsability-and-ai-en/168097d9c5.
[31] Вж. предложението na EK за Регламент за определяне на хармонизирани правила относно изкуствения интелект (Законодателен акт за изкуствения интелект), обяснителен меморандум, с. 15.
[32] Вж. Обяснителен меморандум към предложението за Регламент на Европейския парламент и на Съвета за определяне на хармонизирани правила относно изкуствения интелект (законодателен акт за изкуствения интелект) и за изменение на някои законодателни актове на съюза, COM(2021) 206 final, т. 1.1 .
[33] Responsibility and AI, Council of Europe Study DGI (2015), 05, rapporteur Karen Yeung, p.7.
[34] Вж. Обяснителен меморандум към предложението за Регламент на Европейския парламент и на Съвета за определяне на хармонизирани правила относно изкуствения интелект (законодателен акт за изкуствения интелект) и за изменение на някои законодателни актове на съюза, COM(2021) 206 final, т. 1.1 .
[35] Responsibility and AI, Council of Europe Study DGI (2015), 05, rapporteur Karen Yeung, p.7.
[36] Насоки относно етичните аспекти за надежден изкуствен интелект, разработен от Експертна група на високо равнище по въпросите на изкуствения интелект, Европейска комисия, 2018 г., https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1/language-bg/format-PDF.
[37] Вж. Насоки за етичните аспекти за надежден изкуствен интелект, 2019 г., с. 2, https://digital-strategy.ec.europa.eu/bg/node/1950.
[38] Насоки за етичните аспекти за надежден изкуствен интелект, Ethics guidelines for trustworthy AI
 2019 г., с. 2, https://digital-strategy.ec.europa.eu/bg/node/1950 , с. 2-3 .
[38]Ibid.
[39] По въпроса за отговорността на системите с изкуствен интелект вж. Ковачева, D., Новите субекти на правото – сред нас ли са системите с изкуствен интелект, сп De Jure, т. 13, бр. 2, 2022, http://journals.uni-vt.bg/dejure/bul/vol13/iss2/.
[40] Вж. Communication from the Commission to the European parliament, the Council, the Eeuropean economic and social committee and the Committee of the regions,  Building Trust in Human-Centric Artificial Intelligence, 2019, p. 2, https://digital-strategy.ec.europa.eu/en/library/communication-building-trust-human-centric-artificial-intelligence.
[41] Вж. Rachovitsa, A., Johann, N., The Human Rights Implications of the Use of AI in the Digital Welfare State: Lessons Learned from the Dutch SyRI Case, Human Rights Law Review, Volume 22, Issue 2, June 2022, https://doi.org/10.1093/hrlr/ngac010.
[42]Става въпрос за случай от месец март 2023 г., в който шест седмици преди смъртта си мъжът започва да общува с Елиза – чатбот, създаден от американски стартъп с помощта на технологията GPT-J, алтернатива с отворен код на GPT-3 на OpenAI. „Ако не беше Елиза, той все още щеше да е тук. Убедена съм в това“, казва жената на самоубилия се човек. Тя получава достъп до чатовете на съпруга си и установява, че чатботът не само не е помогнал и не е алармирал за влошаващото се психическо състояние на човека, но го е насърчавал да се самоубие с идеята, че го обича повече от жена му и ще бъдат заедно в Рая.  https://www.belganewsagency.eu/we-will-live-as-one-in-heaven-belgian-man-dies-of-suicide-following-chatbot-exchanges.
[43] Повече по информация за инициативата на ЕК вж. на:  https://www.europarl.europa.eu/RegData/etudes/BRIE/2022/733544/EPRS_BRI(2022)733544_EN.pdf
[44] За повече информация по този въпрос вж. https://digital-strategy.ec.europa.eu/en/news/first-regulatory-sandbox-artificial-intelligence-presented.
[45] Вж. Communication from the Commission to the European parliament, the Council, theEeuropean economic and social committee and the Committee of the regions,  Building Trust in Human-Centric Artificial Intelligence, 2019, p. 2.

31
Коментирайте

avatar
нови хронологично най-добре оценени
ПиХ
ПиХ
04 май 2023 13:52
Гост

Единственото полезно в статията са препратките и цитатите на актове, дела, дефиниции. Иначе тя казва само, че дефиницията е трудна и имало предизвикателства. Мерси, не се сещахме. По същество статията като че ли застъпва тезата, че в дефиницията за ИИ трябва да бъде вградено изискване за защита на човека. Това е абсурдно. Първо, не за всичко трябва да има легална дефиниция. Второ, дефиницията е на обект извън правото – какво е морков, кораб, повторност, Кинт; или на правен обект – ИАА, престъпление; които трябва да бъдеат регулирани. Регулирането винаги стои извън дефиницията, в случая защитата на хората е правна повеля… Покажи целия коментар »

АЛФ
АЛФ
25 април 2023 19:00
Гост

КАКВО СТАНА С ЕСТЕСТВЕНИЯ ИНТЕЛЕКТ ?! ЗАЩО НЕТА СЕ НАПЪЛНИ С ПРОСКУБАНИ ПРОСТИТУТКИ ?!

Предложение
Предложение
25 април 2023 8:16
Гост

МФ обяви,че държавата е в тежка криза-проектът е за дефицит от 6 процента. А всъщност пари има, незабавно могат да бъдат намерени милиарди левове: -Редукция субсидията на съдебната система-до 300 млн лв. Останалите 700 млн могат да бъдат върнати на бюджета. Става лесно-чрез съкращения и премахване привилегии-закриване на следствие, военно правосъдие, закриване институт на помощниците, закриване редица прокуратури-например на прокуратурата към ВАДмС, закриване на съдилища-не са нужни повече от 5 апелативни съдилища, ВС да е един от 12 съдии, съкращенията да са без изплащане на обезщетения и без преназначаванки. Спирането парите за дрехи незабавно ще спести 40 млн лв. Заплатите… Покажи целия коментар »

корекция
корекция
25 април 2023 9:08
Гост

Не са нужни повече от 5 административни съдилища.
Апелативния съд да е един.

За протокола
За протокола
25 април 2023 8:11
Гост

Дете на комунистическата номенклатура.

Във всевъзможни бракове по сметка – политически, идеологически, кариерни.

Права на човека.

Ecce Homo?

Проскубания бухал
Проскубания бухал
25 април 2023 9:00
Гост

Кой е виновен, че след края на комунизма политиката, кариерата и идеологията вече не са толкова тясно обвързани питам аз, щото ако беше преди 1989г. с един куршум, т.е. брак можеше да се отстрелят и трите, а сега се налага адаптивност.

Проскубания бухал
Проскубания бухал
25 април 2023 9:03
Гост

По-рано вятърът е бил един, и то червен, а сега въздушните течения са всякакви, но балонът трябва да се изкачва все по-нависоко независимо от условията, защото ако се приземи преждевременно, всички ще видят колко е спихнал. Постът създава илюзия за компетентност, която обаче проличава доста ясно от качеството на използваните изразни средства в статията, разнообразието на речниковия запас на автора и елементарния стил, наподобяващ приказка за деца под 6 години.

Проскубания бухал
Проскубания бухал
24 април 2023 20:00
Гост

Интересна статия, откъм полезност обаче имах усещането, че страшно много прилича на сериала „Дързост и красота“ – ти четеш, а то не свършва, уж се случва нещо, но развитие няма.

П.С. В текста думата „дефиниция“ и производните й се среща 73-пъти, странен лексикален афинитет, наистина, чак ме смущава.

Хари
Хари
24 април 2023 15:21
Гост

Безспорно има непредвидими рискове за основните човешки права.

Чавдар
Чавдар
24 април 2023 15:19
Гост

Много полезен анализ. Дано повече хора да му обърнат внимание.

Филип
Филип
24 април 2023 15:16
Гост

Да не стане така, че машините един ден да изместят хората.

Анонимен
Анонимен
24 април 2023 13:26
Гост

Ако можехме да възпитаваме децата си достатъчно добре, за да няма насилие, злоупотреби, престъпност, вероятно ИИ нямаше да бъде толкова притеснително явление. Развиваме технологиите, но моралът ни си е на ниво времето на Исус. А кск се разработва етична и коректна машина от некоректни създатели?

Анонимен
Анонимен
24 април 2023 15:26
Гост

Пише се Иисус, а не Исус. И второ, ако моралът ни беше сега, като е бил по негово време, нещата щяха да са значително по-добри във всяко едно отношение.

Анонимен
Анонимен
24 април 2023 11:49
Гост

Тази, ако е омбдусман, то аз съм космонавт. Изключително безполезна, раздаваща го обикновен чиновник. Да не говорим хилядите писма на граждани и организации, които и висят в чекмеджето и изобщо не ги преглежда.

Анонимен
Анонимен
24 април 2023 11:50
Гост

***омбудсман

Анонимен
Анонимен
24 април 2023 10:56
Гост

Академици-парамедици

Свидетел
Свидетел
24 април 2023 10:20
Гост

България е примитивна и с народно мислене страна, така че тези въпроси по изкуствения интелект и човешките права са й непонятни и като цяло МОДЕРНИ. Не сме САЩ, Англия, Германия, Франция и т.н. Там е съвсееееем друго. За нас тази тематика е нова и непозната. Тепърва ще прохожда.

Анонимен
Анонимен
24 април 2023 10:57
Гост

Кое да проходи бе? Какъв ИИ, като сте със скъсани гащи и пет стотинки в джоба. Образованието ли имаш или парите на Мъск и Гейтс, че да ми разсъждаваш по тези теми и да даваш акъли. Смешко!

Анонимен
Анонимен
24 април 2023 9:58
Гост

Да видим. Тук ще отнеме време

Анонимен
Анонимен
24 април 2023 9:57
Гост

Много се драматизира тази тема

Анонимен
Анонимен
24 април 2023 9:56
Гост

Добуър анализ

Анонимен
Анонимен
24 април 2023 9:56
Гост

ИИ в съдебна зала не бива да има

Анонимен
Анонимен
24 април 2023 9:56
Гост

Тръгнаали сме полош пъ с тоя AI

aла бала
aла бала
24 април 2023 9:29
Гост

то у нашенско естествен интелект още няма, та кво остава за изкуственygrqs

Анонимен
Анонимен
24 април 2023 9:26
Гост

Чудесна, практически ориентирана статия, подпомагаща ежедневната работа на юристите. Има и дълбок емоционален заряд и смисъл, върху който ще разсъждавам тази седмица, когато си разхождам кучето по ул. „Денкоглу“.

Адв.
Адв.
24 април 2023 8:55
Гост

Нашият преподавател по Информационно право в ЮФ на СУ, проф. Кискинов с право на всяка лекция си ни казваше, че изкуственият интелект ще навлезе сериозно в ежедневието на човека и ще стане част от правната реалност. И информационното право ще се занимава с правния режим на изкуствения интелект.

сократес
сократес
24 април 2023 8:19
Гост

Чат GPT показа, че основният проблем на изк. интелект е, че не може да различава истината от лъжата, проблем, който залива обществото ни в момента – фалшивите новини, “факти” и не ми се вярва машината да може да се справи с това, малцина човеци успяват.

Анонимен
Анонимен
24 април 2023 9:07
Гост

Усета за истина/лъжа е субективен. Никоя машина не е субект. Докато не започнат да се самопроизвеждат машините, те ще си останат обект на човешка дейност

старият фантаст
старият фантаст
24 април 2023 8:15
Гост

Азимов преди десетилетия измисли законите на роботиката, каквато и дефиниция на AI да измислят, без тях сме загубени

анонимен
анонимен
24 април 2023 8:03
Гост

Колкото и да не се вярва на нашего брата юриста, това е бъдещето и колкото по-рано започнем да разсъждаваме, четем и пишем по темата с ИИ, толкова по-добре. Браво на омбусмана за погледа в бъдещето

За протокола
За протокола
25 април 2023 8:20
Гост

По въпроса най-напред е Русия. После Китай.

Крайно време е да се присъединим към прогресивната, по-млада и по-интелектуална част от Човечеството, която иска НОВ СВЕТОВЕН РЕД. А не да сме стари номенклатурни чанти, грозни, тъпи и спонсорирани от А за Б, дедо Сорос и верващи в новия мандат на дедо Джо.