БЪЛГАРИЯ И ЗАКОНОДАТЕЛНИЯТ АКТ НА ЕС ЗА ИЗКУСТВЕНИЯ ИНТЕЛЕКТ: ПОДГОТОВКА, ПРЕДИЗВИКАТЕЛСТВА И ВЪЗМОЖНОСТИ
Европейският съюз прие първата в света цялостна регулация за изкуствения интелект, с която цели да съчетае технологичното развитие с гаранции за сигурност, прозрачност и защита на основните права. Прилагането на Законодателния акт за изкуствения интелект изисква създаване на национални механизми за надзор и адаптиране на съществуващите регулаторни рамки. В този контекст се провежда инициативата "ЕС Право БГ" между БТА и Европейския парламент, която цели да проследи транспонирането и прилагането на европейското законодателство в България.
Законодателният акт на ЕС за изкуствения интелект (Регламент (ЕС) 2024/1689 за определяне на хармонизирани правила относно изкуствения интелект) бе одобрен в Европарламента през март миналата година, но пълното влизане в сила ще стане през август 2026 година. Неговата цел е да гарантира безопасността и зачитането на основните права, като същевременно насърчава иновациите. Законът е първият по рода си в света.
Европейският съюз като пионер в регулацията на изкуствения интелект
Европейският съюз като политически орган отново създава правен прецедент, започвайки пръв работата си по рамката за изкуствения интелект (ИИ). Европа беше първа в света и със закони от типа на GDPR и тогава мнозина в Америка дори ѝ завидяха за това, обяснява Бойчо Попов от дирекция "Икономика" на БТА в епизод на подкаста "БТА Паралели". Освен това, регулаторната рамка ясно показва, че на практика няма да има ключова сфера на човешката дейност, която не попада в нейния обсег и в зависимост от нейната специфика тя ще фигурира в категориите "неприемлив", "висок", "ограничен" и "минимален" риск от заплаха, добави той.
В списъка с високорискови системи попадат тези, които се използват например при диагностициране на заболявания, автопилотните системи на автомобилите, както и биометричната идентификация на лица, тъй като такива системи могат да бъдат замесени в престъпна дейност. Те са длъжни да отговарят на строги изисквания, преди да получат достъп до пазара на ЕС, като например преминаване през специфични и сериозни тестове, прозрачност и човешки надзор.
Системите с изкуствен интелект, които представляват неприемлив риск за ЕС, имат забрана за ползване в съюза, тъй като са опасни за правата на човека. Такива са системите за дистанционна биометрична идентификация в реално време, като например лицево разпознаване.
Подготовката на държавите членки
На този фон ключов въпрос остава обаче как отделните държави членки се подготвят за прилагането на новата регулаторна рамка и какви модели за транспониране се очертават в рамките на Европейския съюз. Макар регламентът да е задължителен за всички държави членки, неговото прилагане и контрол зависят от националните власти. Страните от ЕС обаче подхождат по различни начини.
Италия вече прие закон за прилагането на акта на национално ниво, Испания създаде специализирана агенция за надзор на изкуствения интелект, а Германия все още финализира рамката за контрол и прилагане.
Италианският парламент одобри през септември закон за изкуствения интелект и така Италия стана първата държава от Европейския съюз с всеобхватни регулации за ИИ, съобразени с европейския регламент. Законът предвижда различни правила за различните сектори и изисква проследяемост и човешки контрол върху решенията, взети с изкуствен интелект. Достъпът до програми с ИИ за деца под 14 години е ограничен и се разрешава само с родителско съгласие.
От друга страна, Испания все още няма закон на национално равнище, но по-рано тази година испанското правителство одобри законопроект, който налага големи глоби на компании, използващи съдържание, генерирано от изкуствен интелект, без това да бъде отбелязано. Целта на одобрения през месец март закон е да се ограничи дийпфейк съдържанието.
Прилагането на новите правила ще бъде отговорност на създадената наскоро Агенция за контрол и наблюдение на ИИ (AESIA), с изключение на конкретни случаи, свързани с лични данни, престъпления, избори, кредитни рейтинги, застраховки или капиталови пазари, които ще се наблюдават от съответните надзорни органи.
Сред другите страни, в които също все още няма приет закон, е Германия. През септември обаче федералното министерство за дигитализация обяви, че започва консултации с провинциите и асоциациите по законопроект за прилагането на европейския регламент. Законопроектът определя отговорните германски органи, регулира техните задачи и взаимодействието между засегнатите области, както и включва мерки за подкрепа на иновации и разпоредби за налагане на санкции.
България в европейския контекст
В контекста на различните национални подходи в ЕС въпросът за мястото на България в прилагането на Акта за изкуствения интелект придобива особена актуалност.
Говорейки за напредъка на България в прилагането на закона, Бойчо Попов посочи, че България е вече "част от стратегическата инфраструктура по изкуствения интелект в Европа".
Примерът: България ще има фабрика за изкуствен интелект, която е в процес на създаване в момента в София Тех Парк. Националното финансиране е 90 милиона лева, а другите 50 процента идват от Европейския съюз. Част от фабриката е супермодерният компютър Discoverer++, какъвто няма нито на Балканите, нито дори в Източна Европа.
"Това е една де факто минифабрика, само че в тази фабрика няма да се изграждат продукти, а висококвалифицирани услуги", обясни Бойчо Попов.
От своя страна, в интервю за БТА Ева Майдел, член на Европейския парламент от групата на Европейската народна партия и съдокладчик на Законодателния акт за изкуствения интелект, заяви, че България има всичко необходимо да започне да създава модели на изкуствен интелект за отделни бизнеси за постигане на ефективност.
"Важно е да се отбележи, че ако развивате изкуствен интелект в по-малко рискови категории, изискванията са много по-ниски", заяви тя. "Това означава, че всяка компания, която иска да направи процесите или производствата си по-ефективни с помощта на ИИ, може да го направи, без да е подложена на толкова стриктни регулации", добави евродепутатът.
Практически всеки бизнес може с помощта на фабриката за ИИ и с помощта на института INSAIT да разработи модел, който е захранен с нужната за него информация, нишов модел, който да е насочен към специфични бизнес процеси", изтъкна Майдел.
Според Ева Майдел най-голямото предизвикателство при прилагането на Законодателния акт за изкуствения интелект е как компаниите, които искат да развиват ИИ в тези области, записани като рискови, са готови да прилагат закона.
Всекидневно компании дават знак, че искат отлагане на влизането в сила поне на някои части от това законодателство, заяви евродепутатът.
Преди няколко месеца големи европейски компании, включително германската софтуерна компания САП (SAP) и френският доставчик на решения за изкуствен интелект "Мистрал АИ" (Mistral AI), призоваха ЕС да спре прилагането на закона, защото според тях той излага на риск амбициите на Европа в областта на изкуствения интелект.
Правна и експертна перспектива
Поставените възможности и предизвикателства подчертават необходимостта от по-задълбочен експертен и правен анализ на прилагането на регламента.
В интервю за БТА адвокат Атанас Костов, управляващ съдружник на кантора "ЮСАУТОР", разглежда Регламента за изкуствения интелект като фундаментална промяна в правото – акт, който за първи път регулира самите алгоритми според риска, който носят за човека и обществото.
Той предупреждава, че липсата на национална рамка, подготвени съдилища и експерти може да доведе до хаотично и репресивно правоприлагане, което да удари иновациите и бизнеса. Според него закондателният акт неизбежно ще създаде нова правна специализация – "право на изкуствения интелект", а човешкият надзор ще остане ключов елемент, независимо от навлизането на автоматизацията в правосъдието и администрацията.
От своя страна експертът по киберсигурност Ясен Танев поставя акцента върху практическата страна на регулацията и върху човешкия фактор. Той подчертава, че Европа е избрала различен път от САЩ и Китай – път, в който етиката и човекът са в центъра. Танев предупреждава за липсата на "хигиена на изкуствения интелект" в България, за масовото и рисково използване на генеративни модели без оценка на въздействието и за илюзията, че компаниите имат време до 2026 г., при положение че ключови разпоредби на регламента започнаха да се прилагат още през август 2025 г. Той разглежда закона като част от по-широка регулаторна екосистема, заедно с DORA, NIS2, Акта за киберустойчивост и Акта за данните, и настоява, че устойчивостта е въпрос на избор – и за бизнеса, и за държавата.
От гледна точка на правото създаването на ясни правила за стартъпи, работещи с ИИ, както и минимални изисквания за нискорисковите системи, е достатъчно, за да бъде стабилна нормативната рамка и да не се стигне до ситуация, в която технологията "убива правото", заяви от своя страна Костов.
Една от ключовите идеи на закона е човекът да остане в центъра. Затова Регламентът въвежда изисквания за прозрачност, оценка на риска, човешки надзор и отговорност, добави той.
Според Костов най-големите предизвикателства ще бъдат свързани с ясното дефиниране на високорисковите системи, ефективния надзор и прилагането на санкции. Липсата на квалифицирани експерти също е сериозен фактор, тъй като оценката на ИИ системи изисква както юридически, така и технически знания.
Институционалната подготовка в България
Паралелно с експертните оценки, на преден план излиза и въпросът за институционалната готовност на България за прилагането на регламента.
Като основно изпълнено задължение Министерството на електронното управление (МЕУ) отчита приемането на Решение на Министерския съвет № 398 от 18 юни 2025 г., с което са определени седем компетентни органа по защита на основните права, включително правото на недискриминация. Това са омбудсманът, Централната избирателна комисия (ЦИК), Комисията за защита от дискриминация (КЗД), Комисията за защита на личните данни (КЗЛД), Комисията за защита на потребителите (КЗП), Държавната агенция за закрила на детето (ДАЗД) и Изпълнителната агенция "Главна инспекция по труда". С това, по оценка на министерството, България е изпълнила едно от първоначалните изисквания на регламента – да се осигури разпределение на институционални компетенции по линия на въздействието на системите с ИИ върху права, свързани с недискриминация, лични данни, потребители, права на детето и трудови права.
МЕУ посочва, че е изготвило проект на решение на Министерския съвет за определяне на национален нотифициращ орган по Акта за ИИ, като се предвижда тази функция да бъде възложена на Изпълнителна агенция "Българска служба по акредитация". Проектът обаче все още не е внесен за разглеждане и приемане от Министерския съвет.
По сходен начин стои въпросът и с надзора върху пазара на високорискови системи с ИИ. Министерството съобщава, че е провело консултации и е изготвило проект на решение на Министерския съвет, но процедурата по междуведомствено съгласуване тепърва предстои. Кои органи ще осъществяват реалния надзор и как ще бъдат разпределени правомощията между тях към момента не е определено.
На въпрос дали се предвижда създаването на единен национален координационен център за изкуствен интелект, аналогичен на т. нар. AI Office на ниво Европейски съюз, МЕУ отговаря, че към момента такова решение не е взето. Координационният модел предстои да бъде предложен от бъдещата работна група, което допълнително отлага яснота по институционалната архитектура.
