Актът за изкуствения интелект и изключенията за софтуер с отворен код
Какво означават новите правила за българските компании и юристи?
Актът за изкуствения интелект (AI Act) на Европейския съюз вече е факт, а съществена част от него вече е в сила, което поставя на преден план новите положения, правила и процедури, които разработчици, внедрители и ползватели на системи с изкуствен интелект трябва да имат предвид.
Регламентът, съдържащ над 180 рецитала и 113 члена, въвежда унифицирана правна рамка, основан на принципите на категоризиране на риска. Системите с ИИ се класифицират според нивото на риск, който могат да създадат – от минимален до неприемлив. Колкото по-голям е рискът, толкова по-строги стават изискванията за тяхното прилагане, наблюдение и контрол, а системите с недопустим риск са забранени на територията на ЕС. Предстои и приемането на национално законодателство от държавите-членки, които да въведат по-подробни правила и процедури за използването и създаването на системи с ИИ. Италия е първата държава от Съюза, която прие подобен закон, а такъв се обмисля и в България.
Изключенията за системи с отворен код – какво включват
Една от най-интересните и същевременно най-важни теми в Регламента е изключението за софтуер с отворен код. В съзвучие с цялостната цел на Акта - да насърчи развитието на надежден, ориентиран към човека изкуствен интелект, като едновременно с това гарантира защита на здравето, безопасността и основните права на хората, предвиденото изключение за системите с отворен код цели да защити и насърчи свободната иновация, като облекчи изискванията за разработчиците, които споделят своите технологии открито.
Регламентът поставя дефиниция за това какво е „отворен код“ в Съображение 102, като го определя като „софтуер и данни, включително модели, които се предоставят с лиценз, позволяващ свободен достъп, използване, изучаване, промяна и разпространение“. Това гарантира, че ключови технологии остават достъпни за академичната общност, малките разработчици и иновативните стартиращи компании. При моделите с общо предназначение (GPAI) изискването включва и публичен достъп до тежестите, архитектурата и указанията за използване, за да се осигури прозрачност и проследимост. Дефиницията е подобна на утвърдената от Инициативата за отворен код - OSAID-1.0, което улеснява разработчиците на ИИ-системи при въвеждането на системи с отворен код.
Самото изключение, предвидено от европейския законодател, посочва, че Актът не се прилага за системи, публикувани под свободен и отворен лиценз, освен ако те не са високорискови, не попадат сред забранените практики или не създават рискове за прозрачността.
Кои модели попадат под дефиницията
Към момента, моделите, които покриват дефиницията на Регламента, са Pythia (Eleuther AI), OLMo (AI2), Amber и CrystalCoder (LLM360) и T5 (Google). Те отговарят на условията на лиценза и предоставят пълен достъп до кода и параметрите си.
От друга страна, Llama 4 (Meta), Grok (X/Twitter), Phi-4 (Microsoft) и Mixtral (Mistral) не се считат за напълно отворени поради лицензионни ограничения и съответно не могат да се възползват от изключението.
Ограниченията остават – дори за отворен код
Както бе посочено, ограничението за приложимостта на Акта спрямо ИИ системи с отворен код не е абсолютно и то има ясни граници. Регламентът забранява използването на ИИ за оценка или класификация на хора, за предвиждане на вероятност от престъпления, за биометрична идентификация на публични места и за анализ на емоции на работното място. Тези практики се считат за несъвместими с основните права, дори когато технологията е с отворен лиценз.
Под изключението не попадат и високорисковите системи с ИИ- тези, използвани в сектори като критична инфраструктура, системите за емоционално разпознаване, интегрирани в трудовата или образователната среда, системите в секторите на публичните услуги, миграцията и правосъдието и др. В тези сектори дори системите с ИИ с отворен код и под отворен лиценз следва да спазват стриктни мерки за съответствие, управление на риска, предоставяне на техническа документация и докладване на съответните органи.
Тук единственото облекчение за разработчиците и внедрителите се отнася до инструменти, услуги, компоненти или процеси, които НЕ са модели с общо предназначение и са интегрирани във високорискови системи с ИИ. В този случаи, ако тези инструменти са разпространени под отворен код и са с отворен лиценз, то за тях задължението за докладване отпада съгласно чл. 25 (4) от Регламента.
Изключението не важи дори за системите, класифицирани от Акта като такива с ограничен риск или системи с „рискове, свързани с прозрачността“- системи, с които потребителите взаимодействат директно. Такива са например чатботовете или генератори на съдържание (deepfakes). За тях също не е предвидено изключение, в случай, че се разпространяват под отворен код. Всяко взаимодействие трябва да бъде прозрачно: потребителят следва да бъде своевременно информиран, че общува с изкуствен интелект, а генерираното съдържание трябва да бъде ясно обозначено като създадено от изкуствен интелект, а не човек.
Какво се изисква от доставчиците на модели с общо предназначение
Актът за изкуствен интелект предвижда специален режим за доставчиците на модели с общо предназначение (GPAI). Те трябва да поддържат подробна техническа документация, да осигуряват прозрачност относно тренировъчните данни и да спазват изискванията за авторско право.
Доставчиците на GPAI модели с отворен код се ползват от някои облекчения. Те са освободени от задължението за предоставяне на техническа документация за модела, както и задължението да предоставят информация и документация на лица, които възнамеряват да интегрират GPAI модела в своите ИИ системи. Отпада и изискването да се назначава представител в ЕС, когато доставчиците на GPAI модели с отворен код са базирани извън територията на Съюза.
Не така стоят нещата обаче за GPAI модели със системни рискове – такива
със значително въздействие върху пазара на Съюза поради своя обхват или поради реалните си или разумно предвидими отрицателни последици върху общественото здраве, безопасността, обществената сигурност, основните права, или;
чиито изчисления, използвани за неговото обучение, измерено при операции с плаваща запетая (floating point operations или FLOPS), е по-голямо от 1025.
При тези модели изключения за отворен код не се предвиждат. Техните доставчици трябва да провеждат тестове, да осигуряват високо равнище на киберсигурност и да докладват инциденти до Европейската служба по изкуствен интелект или до националната такава.
Накратко: Какво означава това за разработчици и внедрители
Ако разработвате система с ИИ с отворен код, която представлява „неприемлив риск“ съгласно Акта за ИИ, тази система е забранена за използване в ЕС, без изключение.
Ако разработвате и публикувате ИИ система с отворен код, която се определя като „високорискова“ съгласно Акта за ИИ, изключението за отворен код не се прилага. Изключение има само за инструменти, услуги, компоненти или процеси, които НЕ са модели с общо предназначение, и са интегрирани във високорискови системи с ИИ. Тези инструменти са освободени от задължения за докладване, ако са разпространени под лиценз с отворен код.
Ако разработвате и публикувате ИИ система с отворен код, която попада в категорията „рискове, свързани с прозрачността“ съгласно Акта за ИИ, изключението за отворен код не се прилага.
Ако разработвате ИИ система с отворен код, която представлява минимален или никакъв риск съгласно Акта за ИИ, изключението за отворен код не е приложимо, тъй като не се налагат задължения. Въпреки това разработчиците се насърчават да спазват кодекси за поведение за доброволно прилагане на част или всички изисквания за високорискови ИИ системи, които в момента се разработват като хармонизирани стандарти от JTC21 CEN-CENELEC.
Ако разработвате ИИ модел с общо предназначение (GPAI) с отворен код, имате следните облекчения:
Освободени сте от предоставянето на (a) техническа документация на модела и (b) информация и документация на доставчиците на ИИ системи, които възнамеряват да интегрират GPAI модела в своите ИИ системи;
Освободени сте от това да назначавате упълномощен представител в ЕС, ако сте установени в трета за Съюза държава.
Ако разработвате ИИ модел с общо предназначение (GPAI) с отворен код със системен риск, изключението за отворен код не се прилага и следва да спазвате задълженията в Регламента.
Какво означава това за българския бизнес
За българските компании и юридически специалисти новата регулация създава едновременно предизвикателства и възможности. Всеки бизнес, който използва или разработва технологии с изкуствен интелект, трябва да направи оценка на риска и да установи дали попада в обхвата на Акта за изкуствен интелект и в коя категория риск попада неговата система. Това се отнася както до технологични компании и стартъпи, така и до адвокатски кантори, които използват ИИ инструменти за правен анализ, автоматизация или клиентско обслужване.
Проверката е от важно значение и поради различните етапи на влизане в сила на разпоредбите на Регламента - правилата за високорискови системи влизат в сила на 2 август 2026 г., но тези за забранените практики са вече в сила от 2 февруари 2025 г., докато правилата за моделите с общо предназначение са в сила от 2 август 2025 г.
Практически стъпки за фирми и юристи
Първата стъпка е идентифициране на използваните ИИ системи и анализ на това дали те са високорискови. След това следва преглед на лицензионните условия – ако технологията е с отворен код, проверете дали лицензът наистина позволява свободно използване и разпространение и дали съответства на дефиницията, посочена в Регламента.
Следващата е изграждането на вътрешни политики за прозрачност, защита на данните и отговорно използване на ИИ. Компаниите трябва да поддържат актуална документация, която да доказва съответствие с изискванията, и да бъдат готови за проверки от страна на регулаторите. Важен елемент е изготвянето на вътрешна политика за етично използване на ИИ, включваща мерки за защита на личните данни, избягване на дискриминация и гарантиране на прозрачност.
Добра практика е и поддържането на правна и техническа документация, която може да се представи при проверка за съответствие.
Как Правен интелект може да помогне?
В контекста на новите регулации Правен интелект се утвърждава като доверен партньор на българските фирми, юристи и технологични компании. Платформата предлага интелигентна правна помощ, която съчетава изкуствен интелект с експертни познания по българско и европейско право.
Правен интелект може да ви помогне при:
установяването в коя рискова категория попада вашето ИИ решение според Акта за изкуствен интелект;
извършването на правен анализ и оценка на съответствие на вашите ИИ решения с изискванията на Акта за изкуствен интелект;
подготовка на вътрешни политики и документация за управление на риска и прозрачност.
✅ Пробвайте Правен Интелект още днес безплатно!

Георги Христов
13.10.2025 г.