Политическите партии често обичат да казват, че техните кандидати са различни от останалите, но този на Smarter UK наистина е такъв, защото той не е човек – той е творение на изкуствен интелект (AI). Новата политическа партия вярва, че нейният кандидат, AI Steve, може да върне доверието в политиката във време, когато доверието е достигнало нови дъна.

AI Steve е аватарът с изкуствен интелект на Стив Ендакот, който управлява Neural Voice, технологичната компания зад кампанията на Smarter UK. Човекът Ендакот се кандидатира и загуби като кандидат на консерваторите на местните избори през 2022 г. в Рочдейл, където живее.

Ако AI Steve бъде избран от избирателите на Брайтън Павилиън, Ендакот ще е в парламента. Това обаче е малко вероятно, тъй като районът е с голямо мнозинство на зелените, което само лейбъристите, изглежда, могат да преобърнат.

Кампанията твърди, че AI Steve ще „преоткрие демокрацията“, като накара избирателите да предложат и гласуват какво трябва да направи AI Steve като местен депутат, като Ендакот ще се появи физически в парламента, за да изпълни това, което те решат.

Колективното одобрение или неодобрение на избирателите чрез AI Steve определя какво ще направи Ендакот (ако повече от 50% гласуват за конкретно действие, той ще го предприеме). Този подход се основава на принципа на управлението на мнозинството, основен аспект на демократичното управление. Според този принцип решенията, които имат най-голяма подкрепа, са тези, които трябва да бъдат взети.

Като се има предвид потенциално значителното влияние на избирателите върху парламентарните гласове на Ендакот чрез AI Steve, SmarterUK твърди, че изкуственият интелект може да подобри доверието между избирателите и техните представители.

Британски бизнесмен иска да представлява изкуствен интелект в парламента

Може ли изкуственият интелект наистина да възстанови доверието в политиката? За да отговоря на този въпрос, разгледах петте елемента на доверие в правителствата, както са определени от ОИСР: почтеност, отзивчивост, надеждност, откритост и справедливост, за да видя къде е AI Steve. Макар идеята на теория да дава на гласоподавателите по-директен контрол, тя повдига множество други правни, етични и практически въпроси, когато става въпрос за реалното управление.

Почтеност. Нашите правни и политически институции са изградени върху предпоставката за човешка отговорност. Изкуственият интелект, колкото и да е сложен, не е човек и не притежава преживяванията, които оформят нашето разбиране за тези ценности. Съществува риск решенията на AI Steve, базирани на данни и алгоритми, да не успеят да уловят нюансите на човешките ценности и етика. Трудно е да се види как изкуственият интелект може наистина да представлява волята на хората и дали участието му в политиката е в съответствие с демократичните принципи на Обединеното кралство.

Отзивчивост. Наличен 24 часа, 7 дни в седмицата, AI Steve със сигурност е достъпен за избирателите. Но това може да създаде нереалистични очаквания на други депутати, които не се поддържат от версия на себе си с изкуствен интелект. Това означава и че Ендакот, който живее в Рочдейл, Голям Манчестър (въпреки че поддържа къща в Брайтън, според уебсайта на AI Steve), може да избегне личното появяване в своя избирателен район.

Надеждност. Участието на избирателите в насочването на действията на депутатите от техния избирателен район изисква те да имат добро разбиране на разглежданите проблеми, за да вземат информирани решения. Подходът на AI Steve е да поддържа 50% праг на подкрепа за своите действия, а това означава, че той може да вземе решение или да гласува по определен начин, ако значителна част от хората са против. Това е граница, подобна на видяното на референдума за Брекзит, така че потенциалът за поляризация и конфликт е очевиден.

Откритост. Депутатите хора могат да обяснят причината за вземането на решение, което може да не бъде подкрепено от всички избиратели. С AI Steve може да имаме повече сценарии тип „черна кутия“ (при които предоставянето на информация не върви ръка за ръка с информация за вътрешните механизми на източника – бел. ред.). Неговата обосновка, когато става въпрос за това как е обработил предложенията на своите избиратели, може да не е очевидна или разбираема за типичния избирател. Законът има ограничен обсег за справяне с тази непрозрачност, за да гарантира, че вземането на решения с ИИ е възможно най-прозрачно и отворено.

Справедливост. Около 63% от хората казаха, че държавните служители спазват същите правила като всички останали, оказват влияние върху това колко вярват на националното правителство.

В случай на грешки или нарушаване на правила от AI Steve, кой носи отговорност? Дали това са създателите на изкуствен интелект, самият изкуствен интелект, Ендакот, гласоподавателите, които го подкрепиха, или тези, които са допринесли за неговите позиции? Ако правната рамка се развие, за да се изясни отговорността на изкуствения интелект, как това ще се отрази на политическите решения на AI Steve?

Изобретението на AI Steve повдига повече въпроси, отколкото дава отговори относно доверието в политиката. Изкуственият интелект може да предложи потенциал за повече обществено участие в политическия процес, но правната общност трябва да бъде проактивна и да оформя закони, за да гарантира, че интересите на гражданите и целостта на политическата система са защитени.

Тази публикация е част от ежедневния преглед на печата на правна тематика

Коментирайте

avatar