Готови ли са регулаторите да регулират в условията на „цифрово по подразбиране“ законодателство?
Авторът
Ирина Цакова е доктор по научна специалност „Теория на държавата и правото“ от Юридическия факултет на Софийския университет „Св. Климент Охридски“, професор по Информационно право. Ръководител на Център за цифрови права и правен експерт в „Европейски център по законодателство“.
Информацията в статията относно законодателния процес отразява развитието му към 5 февруари 2024 г.
Поставеният въпрос цели да съчетае две актуални теми, като им придаде различен от наложилия се в публичното пространство смисъл.
Първо: Темата за регулаторите. Към настоящия момент тя се свързва доминиращо с броя на позициите (незаети или с изтекъл мандат) и начина на тяхното разпределение между политическите сили (с инцидентни изявления за избягване на квотно-партийния принцип и прозрачност на процедурите).
Второ: Темата за регулирането на високите технологии. Поради модерността си, темата не страда от недоимък на интерпретации и прогнози, като абстрактните разсъжденията на футуролозите за „екзистенциалните рискове“ от бъдещото развитие на технологиите, в частност на изкуствения интелект (ИИ), са особено открояващи се. В тази връзка, като съпътстваща „линия на вдъхновение“ напоследък могат да се отбележат и възможностите на големите езикови модели (LLMs). Както е предположил Хърбърт Саймън, още през 1969 г., „изкуственият интелект е тук, за да остане“, но „с времето тя (фразата „изкуствен интелект“, бел.авт.) ще стане достатъчно идиоматична, за да престане да бъде обект на евтина реторика“[1].
Връзката между тези две теми поставя тяхното разглеждане на съвсем различна основа, която се проява в принципа „цифрово по подразбиране“ законодателство на ЕС[2].
Отправна точка
На 9 декември 2023 г. в рамките на Испанското председателство преговарящите представители на държавите членки и Европейския парламент постигнаха предварително споразумение[3] по предложението за Регламент на Европейския парламент и на Съвета за определяне на хармонизирани правила относно изкуствения интелект (Законодателен акт за изкуствения интелект) и за изменение на някои законодателни актове на Съюза[4]. На 2 февруари 2024 г. белгийското председателство съобщи, че споразумението е потвърдено от посланиците на страните членки[5]. Предстои приемането му и от Парламента.
Темповете на развитие на технологиите са толкова бързи, че наложиха съществени изменения (приети от Европейския парламент на 14 юни 2023 г.) в първоначалното предложение на Комисията (от 21 април 2021 г.), които частично бяха направени още в приетия на 6 декември 2022 г. общ подход на Съвета на Европейския съюз[6]. Постигнатото през декември 2023 г. споразумение се отнася до нови разпоредби, свързани със системи с ИИ с общо предназначение, специфични правила за базовите модели (вкл. генеративен ИИ).
Частта от Законодателния акт за ИИ, уреждаща условията за определянето на национални компетентни органи, които да отговарят за неговото прилагане и изпълнение (Дял VI, Глава Втора) претърпява редакции, но те не променят по същество предложената от Комисията концепция[7].
„На национално ниво държавите членки следва да определят компетентни органи, отговорни за прилагането и надзора на новите правила и последващия надзор на пазара. Те трябва да бъдат снабдени с компетенции, за да изпълняват задачите си по ефективен начин, като се гарантира, че разполагат с подходящо финансиране, технически и човешки ресурсен капацитет и механизми за сътрудничество, като се има предвид, че една система с ИИ може да попадне в секторните компетенции на редица регулатори или някои ИИ системи може в момента изобщо да не се контролират“[8].
Посочените изисквания и констатации, изведени в оценката на въздействието на Законодателния акт за ИИ, се основават на текстовете, предложени от Комисията, с които се установява задължението на държавите членки да определят националните компетентни органи по прилагане на акта, като измежду тях определят и национален надзорен орган, който да осъществява координиращи функции (чл. 56 и сл.). В приетите от Парламента изменения от юни 2023 г. задължението за определяне на национален надзорен орган не е обвързано с условие и по преценка това може бъде както нов орган, така и съществуващ национален компетентен орган по смисъла на Законодателния акт за ИИ, като срокът за това е кратък (виж по-долу).
По същество горното не променя цитираното от оценката на въздействието, тъй като и след изменението текстовете отговарят изцяло на възприетия в Законодателния акт за ИИ хоризонтален, основан на риска подход, който от една страна, задължава държавите членки да определят национален надзорен орган, отговарящ за неговото прилагане и изпълнение (чл. 59, пар. 1)[9], а от друга, запазва правомощията на компетентните органи съгласно секторното законодателство в областта на безопасността (по-специално, при извършване на процедури за оценяване на съответствието), за да се гарантира безопасността на крайния продукт и в този случай те ще изпълняват функциите на орган на надзор на пазара[10] съгласно Регламент (ЕС) 2019/1020[11]. Последното не изключва тяхното задължение да спазват мерките, издадени от националния надзорен орган (определен съгласно Законодателния акт за ИИ), когато конкретният случай се отнася до „аспекти, обхванати изрично“ от него. В тази хипотеза националният надзорен орган действа като орган за надзор на пазара (чл. 59, пар. 2).
Посоченият законодателен подход е проведен последователно в разпоредбите на регламента, включително в правилата за класифициране на високорисковите системи с ИИ (чл. 6). Предвидени са два критерия.
Първият е според предназначението на системата в съответствие със съществуващото законодателство в областта на безопасността на продуктите, като са въведени две кумулативни условия: системата с ИИ е предназначена да се използва като защитен елемент от продукт, или самата система с ИИ[12] е продукт, попадащ в обхвата на правото на Съюза за хармонизация (посочено в приложение II) и съгласно същото „трябва да премине оценяване на съответствието от трета страна във връзка с рисковете за здравето и безопасността с оглед на пускането на пазара или въвеждането в експлоатация“. Класифицирането зависи не само от функцията, изпълнявана от системата с ИИ, но и от конкретната цел и условия, за които се използва тази система.
Вторият критерий е според областта на приложение на системата, като в приложение III са посочени критичните области или случаи на употреба, които биха дефинирали една система с ИИ като високорискова, при условие че представлява значителен риск от увреждане на здравето, безопасността или основните права на физическите лица[13].
Във връзка със задължителното въвеждане на система за управление на риска за висорисковите системи с ИИ, същата може да бъде интегрирана в или да бъде част от вече съществуващи процедури за управление на риска, свързани със съответното секторно право на Съюза, доколкото се изпълняват изискванията чл. 9 от регламента.
Разпоредбите в тази посока са систематично отразени в целия текст на акта.
За целите на възприетия подход, Законодателният акт за ИИ се допълва и от приетото ново секторно законодателство в областта на безопасността на продуктите (Регламент (ЕС) 2023/988 на Европейския парламент и на Съвета от 10 май 2023 година относно общата безопасност на продуктите[14], Регламент (ЕС) 2023/1230 Европейския парламент и на Съвета от 14 юни 2023 година относно машините)[15], новите предложения на Европейския парламент и на Съвета за директиви в областта на продуктовата отговорност[16] и за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект[17], както и от други актове в новата законодателна рамка (медицински изделия, детски играчки) съгласно Приложение II към Регламента[18].
Всички секторни компетентни органи съгласно актовете за хармонизация – националният надзорен орган, органът за надзор на пазара и нотифициращият орган, попадат под дефиницията на чл. 3, т. 43 от Законодателния акт за ИИ за „национален компетентен орган“ и носят отговорност за прилагането на акта[19].
Заедно с това, въпросът, който поставяме, следва да вземе предвид и съгласуваността на Законодателния акт за изкуствения интелект с други политики в областта на управлението на данни[20], цифровите услуги[21], цифровите пазари[22] и др., както и задълженията за държавите членки да определят съответните компетентни органи.
Какво означава това?
От тази гледна точка безспорно важната тема за това кой ще „влезе“ в състава на регулаторите следва да бъде предпоставена от не по-малко важния концептуален въпрос: Как ще работят регулаторите в условията на:
- Необходимост от управление на междусекторни системни рискове в сложни вериги за добавяне стойност, които включват системи с ИИ и свързаните с това вериги за добавяне на стойност на данните?
- Сложна комбинация от правни и регулаторни изисквания към системите с ИИ, които пресичат тясно секторните граници?
- Нарастваща сложност на системите с ИИ и изискванията за обяснимост и прозрачност, включително във връзка с управлението на входящи, обучителни, валидационни и изпитвателни данни, разкриване на изчислителната мощност, размер на модела, мощност на компютъра, време за обучение, предоставяне на информация за разхода на енергия и предприетите стъпки към намаляване на използваната енергия при обучението, човешки надзор, документиране „надолу по веригата“ и др. (част от изискванията, предвидени в регламента, с особен акцент върху базовите модели)?
- Налагащ се регулаторен експериментализъм (експериментално законотворчество), изпреварваща регулация (аnticipatory regulation), изпитване в реални условия[23], регулаторни лаборатории (sandboxes)[24], за който в България все още няма практика[25]?
Организацията за икономическо сътрудничество и развитие (ОИСР)[26] и ЕС[27] възлагат ясен политически мандат на държавите за приемане на експерименталните клаузи в бъдещото законодателство и постигане на гъвкавост в регулаторните режими чрез различни форми на прототипиране на политики[28] (тестване на подходи за регулиране, преди те да бъдат приети), където водеща е ролята на регулаторите.
Последното поставя регулаторите в ролята на „нетипичен законодател“, наред с правителството и неговата експертна администрация[29], разполагащ с „нови инструменти за надзор и практически опит за откриване на ранен етап на необходимост от адаптиране към приложимата правна рамка или хармонизираните технически стандарти“[30], което придава допълнителен сериозен нюанс на поставения въпрос.
Изброените условия маркират само отчасти предпоставките, довели до предвидените в регламента изисквания към националния надзорен орган, който трябва да „разполага с достатъчно технически, финансови и човешки ресурси и инфраструктура“, което означава „достатъчен брой постоянно наличен персонал, чиято компетентност и експертен опит включват задълбочено разбиране на технологиите за изкуствен интелект, данните и компютърните системи за данни, защитата на личните данни, киберсигурността, законодателството в областта на конкуренцията, основните права, рисковете за здравето и безопасността, както и познаване на съществуващите стандарти и правни изисквания“ (чл. 59, пар. 4).
Независимо че изискването се отнася до националния надзорен орган, по аналогия то трябва се възприеме и за секторните компетентни органи предвид възложените им правомощия. Аргумент за това е и необходимостта от изграждане на междуинституционален капацитет за използване на различни инструменти за идентифициране на нови високорискови случаи на използване на ИИ, както и ясни правила за провеждане на междусекторни консултации между националните компетентни органи (чл. 59, пар. 7).
Допълнителни фактори
Върху поставения въпрос пряко резонира липсата на национална политика в областта на ИИ, което е съпътстващ фактор за натрупващите се нерешени задачи от нормативно, инстуционално, организационно и техническо естество.
Действително с Протокол № 72.4 на Министерския съвет от 16.12.2020 г. е приета Концепция за развитието на изкуствения интелект в България до 2030 г.[31], но тя няма характер на стратегически документ съгласно Методологията за стратегическо планиране на Република България и принципно е лишена от конкретика[32].
Достатъчно е да погледнем информацията за състоянието на националните стратегии за ИИ на страницата на Европейската комисия AI Watch[33], както и базата данни за национални политики и стратегии за ИИ на ОИСР[34], за да се убедим, че показателите ни са повече от скромни.
От друга страна, определените национални компетентни органи, съгласно свързаните със Законодателния акт за ИИ области на политики, все още не функционират в пълния обем на своите правомощия. Само в Акта за управление на данните (прилага се от 24 септември 2023 г., но е в сила повече от година преди това) са посочени: компетентни органи, които да оказват съдействие на организациите от обществения сектор при предоставяне или отказ на достъп до защитени данни с цел повторно използване, национални компетентни органи по отношение на посредническите услуги за предоставяне на данни и за регистрация на организациите за алтруистично споделяне на данни. Такива са определени едва с РМС № 670 от 29 септември 2023 г. (като срокът за предоставяне на техните идентификационни данни на Комисията е определен до 24 септември 2023 г.) и липсва яснота по много организационни и технически въпроси, което на практика засега препятства адекватното прилагане на акта. Като пример за това може да се посочи изисканата в края на ноември м.г. от Министерството на електронното управление (МЕУ), в качеството на компетентен орган по прилагането на акта, информация от административните структури и органите на изпълнителната власт за притежаваните от тях защитени данни (по смисъла на акта), които предоставят/или биха предоставяли за повторно използване, наличието или готовността за изграждане на защитена среда, списък с данните с висока стойност, попадащи в Приложението към Регламент за изпълнение (ЕС) № 2023/138[35], както и за определения ред и условията за тяхното публикуване и повторно използване.
Информацията беше поискана без предварителни разяснения от страна на компетентния орган, чиято основна функция е да съдейства на организациите от обществения сектор чрез насоки и техническа подкрепа (чл. 7 от Регламента), което изключително затрудни повечето от адресатите, тъй като исканата информация се оказа почти неразбираема за тях.
Сроковете
В общия подход на Съвета и приетите от Парламента изменения в Законодателния акт за ИИ има различия в определените срокове, като се наблюдава желанието на ЕП за тяхното скъсяване. В компромисния вариант на Съвета (от 2022 г.), регламентът следва да се прилага 36 месеца след влизането му в сила[36], а според измененията на Парламента (от 2023 г.) 24 месеца след влизането му в сила (чл. 85, пар. 2).
И двата текста са консенсусни по отношение на предвидените дерогации в посочените срокове, като разликата отново е в цифрите. Във варианта на Съвета определянето на национален надзорен орган следва да се извърши в срок до 12 месеца след влизането в сила на регламента, а в измененията, приети от Парламента този срок е скъсен до 3 месеца след влизането в сила на регламента.
Независимо че не беше обсъдено по-горе, Законодателният акт за ИИ задължава всяка държава членка да определи или създаде нотифициращ орган[37], който отговаря за въвеждането и извършването на необходимите процедури за оценяването, определянето и нотифицирането на органи за оценяване на съответствието и за провеждането на мониторинг по отношение на тях (чл. 30, пар. 1). Тези функции могат да се изпълняват и от национален орган по акредитация, посочен в Регламент (ЕО) № 765/2008 (чл. 30, пар. 2). Също така, сериозно детайлизирани са изискванията към компетентността на състава на нотифициращите органи, като сроковете за тяхното създаване са уредени по идентичен със сроковете за създаване на национален надзорен орган начин (12, съответно 3 месеца след влизане в сила на регламента). Дерогациите включват и санкционните разпоредби на чл. 71, като и в двата съпоставени текста е посочен срок от 12 месеца след влизането в сила на регламента.
По-сериозно е разминаването във вижданията във връзка с уредбата на регулаторните лаборатории (по-специално текстът на чл. 53, пар. 1). Съветът запазва първоначално предложения вариант на Комисията, като разпоредбата за тяхното създаване има препоръчитен характер.
Парламентът изменя нормата в императивна, като задължава държавите членки да създадат поне една регулаторна лаборатория, която да започне да функционира най-късно в деня на влизане в сила на регламента. Този срок, струва ми се, е нереалистичен.
Окончателният вариант на текстовете след постигнатото в края на 2023 г. споразумение все още не е публично достъпен, но и сега е ясно, че сроковете са кратки.
И накрая
Дали за изпълнение на функциите на национален надзорен орган, съгласно Законодателния акт за ИИ ще бъде създаден нов орган, или ще се определи такъв, като се използва капацитетът на някой от съществуващите регулатори, е въпрос на политическо решение.
Предвид факта, че Законодателният акт за ИИ възлага правомощията във връзка с надзора върху използването на ИИ на различни регулаторни и надзорни органи, се обуславя необходимостта много ясно да бъдат определени и отграничени техните отговорности, за да не се допусне припокриване на функции или неадресирани правомощия. За целта може се използва съществуващият опит на регулаторите, като от ключово значение е проследяването на цялата верига за добавяне на стойност, на целия жизнен цикъл на системи с ИИ и дефиниране на всички участващи, със съпътстващо цялостно и систематично преразглеждане на относимото секторно законодателство.
Съществуващите регулаторни органи със секторни правомощия в обхвата на законодателството, свързано с безопасността на продуктите и новата законодателлна рамка (съгласно Приложение II от регламента) следва да анализират и определят рамките на тези правомощия в условията на единен подход и съгласуваност помежду си.
Независимо че сроковете, които ще бъдат определени в регламента, може би ще се окажат недостатъчни за един такъв задълбочен аналитичен процес, той би следвало да бъде съпътстван както от секторни оценки на въздействието, така и от оценка на въздействието на различни варианти на политика, свързана с регулирането на системи с ИИ, включително във връзка с определянето на национален надзорен орган и прогнозиране на разходите за привеждане в съответствие за Закона за ИИ[38]. (В тази връзка е достъпна сериозна оценка на въздействието на регулирането на изкуствения интелект в Обединеното кралство от 23.03.2023 г., като се разглеждат ползите и рисковете при различни сценарии[39]).
Последно (и без скептицизъм)
През ноември 2021 г. Meta обявиха: „Затваряме системата за разпознаване на лица във Facebook. Хората, които са се включили, вече няма да бъдат автоматично разпознавани в снимки и видеоклипове и ние ще изтрием индивидуалните шаблони за лицево разпознаване на повече от един милиард души“[40]. От Meta обясняват действията си като последица от нарастващите опасения в обществото относно технологията за лицево разпознаване, които те свързват и с липсата на ясни правила от регулаторите, чрез които да бъде управляван този процес.
По думите им това засяга автоматичната система за алтернативен текст (AAT), която „използва усъвършенстван ИИ за генериране на описания на изображения за хора с увредено зрение, за да им посочи кога те или някой от техните приятели са на изображение. Но многото конкретни случаи, в които лицевото разпознаване може да бъде полезно, трябва да бъдат претеглени спрямо нарастващите опасения относно използването на тази технология като цяло“[41].
Възниква въпросът може ли липсата на система за алтернативен текст да се тълкува като дискриминационна за хората с увредено зрение. Линията на баланс е много тънка.
Но след като „големите“ изпитват затруднения от неясната регулация, тежестта за осигуряване на среда за развитието на иновационния потенциал на МСП и стартиращите предприятия пада върху регулаторите, включително в контекста на необходимостта от баланс „между мерките за подкрепа на иновациите и осигурените защитни механизми срещу нарушаване на обществен интерес и основните права“[42].
Същевременно българските компании работят в условията на почти „жестока“ конкурентна среда, в която трябва да бъдат сериозно защитени, включително в случаите, в които те са част от „веригата надолу“ за добавяне на стойност, поставени са в неравноправни договорни условия, наложени едностранно (по арг. на чл. 28а от регламента, като текстът се отнася до МСП или стартиращо предприятие).
В своя технически доклад за GPT4 от 2023 г. OpenAI декларират, не без самоувереност, че „както конкурентната среда, така и последиците за безопасността от мащаба на моделите“, са причината да не разкриват подробности „относно архитектурата (включително размера на модела), хардуера, изчисленията за обучение, изграждането на набор от данни, метода на обучение или други подобни“[43]. Това, всъщност, са част от задълженията, предвидени в Законодателния акт за ИИ, и те ще бъдат вероятно стриктно прилагани, но до каква степен „големите“ ще позволят да бъдат засегнати, отново ни връща към въпроса за конкуренцията.
Дали регулаторите са готови да регулират в условията на „цифрово по подразбиране“ законодателство?
Очевидно е, че системите с ИИ и сложната регулаторна среда създават трудности за нейното разбиране в цялост. Предвид сложността на предмета на регулация и бързината на развитие на тези отношения, националните компетентни органи ще трябва да изградят за кратко време сериозен институционален капацитет, за да могат да бъдат адекватни на възложената им отговорност.
Съгласни сме, че „Иновационен хъб – България“ звучи чудесно, но доколко към настоящия момент може да изглежда реалистично.
[1] Herbert A. Simon, The Sciences of the Artificial, Third edition, Massachusetts Institute of Technology, 1996, ISBN 0-262-69191-4, p.4, ref.2;
[2] Терминът налага последователно в различни актове на Комисията и Парламента. Виж. Резолюция на Европейския парламент от 7 юли 2022 г. относно по-доброто регулиране: обединяване на силите за по-добро законотворчество, (2021/2166(INI)) https://www.europarl.europa.eu/doceo/document/TA-9-2022-0301_BG.html;
[3]https://www.consilium.europa.eu/bg/policies/artificial-intelligence/; https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai;
[4] https://eur-lex.europa.eu/legal-content/BG/TXT/?uri=CELEX%3A52021PC0206;
[5] Българска телеграфна агенция, https://www.bta.bg/bg/news/economy/611775-stranite-ot-es-dadoha-zelena-svetlina-na-parviya-po-roda-si-zakon-za-izkustveniy;
[6] Законодателен акт за изкуствения интелект, Общ подход на Съвета, 6 декември 2022 г., https://www.consilium.europa.eu/bg/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/
[7] Тъй като не разполагаме с окончателния текст на акта, навсякъде по-долу ще се позовем на текстовете приети от Парламента, които са близки до пуликувания общ подход на Съвета и вероятно с известни редакции по тях е постигнато споразумение.
[8] Посочено в оценка на въздействието на Европейската комисия на предложението за Законодателен акт за ИИ, Commission staff working document, Impact assessment accompanying the Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial intelligence act) and amending certain union legislative acts, Еuropean commission, Brussels, 21.4.2021 https://eur-lex.europa.eu/legal-content/SV/TXT/?uri=CELEX:52021SC0084
[9] Предложение на Парламента от 14 юни 2023 г.;
[10] Орган за надзор на пазара“ означава националният орган, извършващ дейностите и предприемащ мерките съгласно Регламент (ЕС) 2019/1020 /чл. 3, т. 26/;
[11] Регламент (ЕС) 2019/1020 на Европейския парламент и на Съвета от 20 юни 2019 година относно надзора на пазара и съответствието на продуктите и за изменение на Директива 2004/42/ЕО и регламенти (ЕО) № 765/2008 и (ЕС) № 305/2011;
[12] „Защитен елемент на продукт или система“ означава, в съответствие с правото за хармонизация на Съюза, посочено в приложение II, компонент на продукт или система, който осигурява функция, свързана с безопасността, за този продукт или тази система или чиято неизправност или лошо функциониране поставя в опасност здравето и безопасността на хора /чл. 3, т. 14/;
[13] Това условие е допълнено с измененията, направени от Парламента от 14 юни 2023 г., като са въведени дефиниции на понятията „риск” в чл. 3, пар. 1а, „значителен риск” в чл.3, пар.1б, а в чл.65, пар. 1 е предложено изменение на дефинираното от Комисията понятие за „системите с ИИ, представляващи риск“;
[14] Регламент (ЕС) 2023/988 на Европейския парламент и на Съвета от 10 май 2023 година относно общата безопасност на продуктите/ , за изменение на Регламент (ЕС) № 1025/2012 на Европейския парламент и на Съвета и на Директива (ЕС) 2020/1828 на Европейския парламент и на Съвета и за отмяна на Директива 2001/95/ЕО на Европейския парламент и на Съвета и на Директива 87/357/ЕИО на Съвета;
[15] Регламент (ЕС) 2023/1230 Европейския парламент и на Съвета от 14 юни 2023 година относно машините и за отмяна на Директива 2006/42/ЕО на Европейския парламент и на Съвета и на Директива 73/361/ЕИО на Съвета;
[16] Виж. Предложение за директива на Европейския парламент и на Съвета относно отговорността за дефектни продукти от 28.9.2022 г. и Проект на Законодателна резолюция на Европейския парламент относно предложението за директива на Европейския парламент и на Съвета относно отговорността за дефектни продукти (COM(2022)0495 – C9‑0322/2022 – 2022/0302(COD)) от 12.10.2023г.;
[17] Предложение за директива на Европейския парламент и на Съвета за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект (Директива относно отговорността във връзка с ИИ), 28.9.2022 г. COM(2022) 496 final;
[18] Приложение II, Списък на законодателството на съюза за хармонизация , Раздел А — Списък на законодателството на Съюза за хармонизация въз основа на новата законодателна рамка и Раздел Б. Списък на друго законодателство на Съюза за хармонизация;
[19] „Национален компетентен орган“ означава всеки от националните органи, които отговарят за прилагането на настоящия регламент /чл. 3, т. 43/;
[20] Регламент (ЕС) 2022/868 на Европейския парламент и на Съвета от 30 май 2022 г. относно европейска рамка за управление на данните и за изменение на регламент (ЕС) 2018/1724 (Акт за управление на данните), Директива (ЕС) 2019/1024 на Европейския парламент и на Съвета от 20 юни 2019 г. относно отворените данни и повторното използване на информацията от обществения сектор и Регламент за изпълнение (ЕС) 2023/138 на Комисията от 21 декември 2022 година за определяне на списък с конкретни набори от данни с висока стойност и реда и условията за тяхното публикуване и повторно използване; Регламент (ЕС) 2018/1807 на Европейския парламент и на Съвета от 14 ноември 2018 година относно рамка за свободното движение на нелични данни в Европейския съюз; Регламент (ЕС) 2016/679 на Европейския парламент и на Съвета от 27 април 2016 година относно защитата на физическите лица във връзка с обработването на лични данни и относно свободното движение на такива данни и за отмяна на Директива 95/46/EО (Общ регламент относно защитата на данните);
[21] Регламент (ЕС) 2022/2065 на Европейския парламент и на Съвета от 19 октомври 2022 година относно единния пазар на цифрови услуги и за изменение на Директива 2000/31/ЕО (Акт за цифровите услуги);
[22] Регламент (ЕС) 2022/1925 на Европейския парламент и на Съвета от 14 септември 2022 година за достъпни и справедливи пазари в цифровия сектор и за изменение на директиви (EС) 2019/1937 и (ЕС) 2020/1828 (Акт за цифровите пазари);
[23]„Изпитване в реални условия“ означава временното изпитване на система с ИИ за съответното ѝ предназначение за работа в реални условия извън лаборатория или симулирана по друг начин среда /чл. 3, т. 44н от регламента/;
[24] „Регулаторна лаборатория“ означава контролирана среда, създадена от публичен орган, която улеснява безопасното разработване, изпитване и признаване на иновативни системи с ИИ за ограничен период от време преди пускането им на пазара или въвеждането им в експлоатация съгласно конкретен план под регулаторен надзор /чл. 3, т. 44ж от регламента/;
[25] Проучвания и подготовка за въвеждане на регулаторен пясъчник /sandbox/ за небанковия финансов сектор са предвидени само в Стратегията за наблюдение на финансовите иновации за периода 2021-2024 г. на Комисията за финансов надзор;
[26] Аttrey, A., Lesher, M. and Lomax, C., „The role of sandboxes in promoting flexibility and innovation in the digital age“, Going Digital Toolkit Policy Note 2, 2020. (Атри, А., Лешър, М. и Ломакс, К., „Ролята на регулаторните лаборатории за насърчаването на гъвкавостта и иновациите в ерата на цифровите технологии“, Наръчник за цифровизация, Документ за политиките № 2, 2020 г.) https://goingdigital.oecd.org/data/notes/No2_ToolkitNote_Sandboxes.pdf;;;;мes iomoting flexibility and iation in the digitaage“, Going Digital Toolkit N
[27] Виж повече в: Резолюция на Европейския парламент от 20 май 2021 г. относно изграждането на цифровото бъдеще на Европа: премахване на пречките пред функционирането на цифровия единен пазар и подобряване на използването на изкуствения интелект за европейските потребители (2020/2216(INI)) https://www.europarl.europa.eu/doceo/document/TA-9-2021-0261_BG.html; Заключения на Съвета относно регулаторните лаборатории и клаузите за експериментиране като инструменти за благоприятстваща иновациите, ориентирана към бъдещето и устойчива регулаторна рамка, която може да отговори на мащабните предизвикателства в ерата на цифровите технологии(2020/C 447/01), https://data.consilium.europa.eu/doc/document/ST-13026-2020-INIT/bg/pdf;
[28] Повече за прототипирането на политики виж в доклад с констатации и препоръки от прототипа на политиката на Open Loop „Програма за оценка на въздействието на ИИ”, проведена в Европа от септември до ноември 2020 г., Andrade, Norberto Nuno Gomes, and Verena Kontschieder. “AI Impact Assessment: A Policy Prototyping Experiment” (2021); „Open Loop е глобална програма, която свързва политиците и технологичните компании, за да помогнат разработване на ефективни и основани на доказателства политики относно ИИ и други нововъзникващи технологии. Програмата, инициирана и подкрепена от Facebook, се основава на сътрудничеството и приноса на консорциум, съставен от регулатори, правителства, технологичен бизнес, академични среди и граждански лица представители на обществото. Чрез експериментални методи на управление членовете на Open Loop създават съвместно прототипи на политиката и тестват нови и различни подходи към законите и разпоредбите преди те се приемат, подобрявайки качеството на процесите на създаване на правила в областта на технологичната политика“. https://openloop.org/wp-content/uploads/2021/01/ AI_Impact_Assessment_A_Policy_Prototyping_Experiment.pdf
[29] Колев, Т. Теория на правотворческата дейност. Ролята на нетипичния законодател, Университетско издателство „Св. Климент Охридски”, 2007г., ISBN 978-954-07-2611-3;
[30] Съгласно оценка на въздействието на Европейската комисия на предложението за Законодателен акт за ИИ, Commission staff working document, Impact assessment accompanying the Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial intelligence act) and amending certain union legislative acts, Еuropean commission, Brussels, 21.4.2021 https://eur-lex.europa.eu/legal-content/SV/TXT/?uri=CELEX:52021SC0084;
[31] https://www.strategy.bg/StrategicDocuments/View.aspx?lang=bg-BG&Id=1338;
[32] Авторът споделя становищата, изготвени във връзка с публикувания за обществено обсъждане документ: https://www.strategy.bg/PublicConsultations/View.aspx?@lang=bg-BG&Id=5396;
[33]https://ai-watch.ec.europa.eu/publications/ai-watch-national-strategies-artificial-intelligence-european-perspective-2021-edition_en;
[34] OECD.AI (2021), powered by EC/OECD (2021), database of national AI policies, accessed on 23/01/2024, https://oecd.ai.; https://oecd.ai/en/dashboards/overview;
[35] Регламент за изпълнение (ЕС) 2023/138 на Комисията от 21 декември 2022 година за определяне на списък с конкретни набори от данни с висока стойност и реда и условията за тяхното публикуване и повторно използване;
[36] На двадесетия ден след публикуването му Официален вестник на Европейския съюз;
[37] „Нотифициращ орган“ означава националният орган, отговарящ за въвеждането и извършването на необходимите процедури за оценяването, определянето и нотифицирането на органи за оценяване на съответствието и за провеждането на мониторинг по отношение на тях/чл. 3, т. 19 от регламента/;
[38] Проучване в подкрепа на оценка на въздействието на регулаторните изисквания за изкуствен интелект в Европа се сочи, че прогнозите за разходите за привеждане в съответствие за Закона за ИИ на ЕС варират между 1,6 милиарда евро до 3,3 милиарда евро през 2025; Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe, https://digital-strategy.ec.europa.eu/en/library/study-supporting-impact-assessment-ai-regulation;
[39] UK Artificial Intelligence Regulation Impact Assessment, Department for Science, Innovation & Technology, 2023, https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach;
[40] https://about.fb.com/news/2021/11/update-on-use-of-face-recognition;
[41] Пак там;
[42] G. Leimüller and S. Wasserbacher Schwarzer, Regulatory sandboxes – Analytical paper for Business Europe, April 2020; https://scholarship.law.vanderbilt.edu/cgi/viewcontent.cgi?article=1017&context=jetlaw; F. Pop and L. Adomavicius, Sandboxes for responsible artificial intelligence, European Institute of Public Administration (EIPA), September 2021. https://www.eipa.eu/publications/briefing/sandboxes-for-responsible-artificial-intelligence/;
[43] https://openai.com/research/gpt-4;
17
Коментирайте
It’s understandable to feel frustrated with the lack of regulation in current conditions. It seems like high and mid-level cartels dominate many industries, making it challenging for fair competition and accountability.
https://xciptv.cc/
Веднага става ясно каква е класата на СУ и – защо не трябва да се разрешава Право в други форми – освен редовна форма, мехлем за очите е написаното, за съжаление, аз не мога да го прочета и едва ли някога ще мога, тъй като съм практик.
Времето на практиците е твърде ограничено, не стига и все сме на опашката, но – аз искам да изкажа дълбока благодарност на авторката, че носи кръста си.
Академичната общност е тази – която ни спасява – в дълбоките води на непонятното.
С две думи – статията слага ред.
Не виждам как ще стане. Иначе много добър анализ.
Изключително важни теми относно регулацията.
Регулацията на ИИ е изключително трудно, ако не и невъзможно начинание предвид ускорените темпове на неговото развитие, но моделите с тестовите лаборатории и изпреварващото въвеждане на нормативна уредба могат да бъдат прилагани и в други области с цел оптимизация на законотворчеството като цяло.
Абе, копирайте каквото правят естонците, нали им се получава там в този сектор.
Хубаво пишете ама… нали знаете в коя държава живеем. Не е Латверия
Ами ами. Надай се ку** на пияна жена!
Трагедия. Няма как да стане.
Е как ще регулират, бе? Нали виждате. те се наговарят нещо в някоя луксозна кръчма и се приключва. После еднакви цени от различни фирми
Еми няма как бе. Те и в сегашните условия не могат да регулират нищо. Всичко е картел на високо и средно ниво в бизнеса и услугите
Ще е доста трудно. А като знам какво ни е мисленето, то няма как да стане
Абе хубаво е, че сте се постарали да изпишете и анализирате толкова много. Но отговора ЕСТЕСТВЕНО е не!
Не
Накратко казано: Не
Пълен абсурд! В нашите условия.
Your webpage is quite impressive. At this point in time, it is not easy to come across writing of such excellent quality as yours. Retro games online.