Всичко, което трябва да знаем за Акта за изкуствения интелект

fria, fundamental rights impact assessment, оценка на въздействие на ИИ
fria, fundamental rights impact assessment, оценка на въздействие на ИИ

Европейският акт за изкуствен интелект вече е в сила, макар и да се прилага по етапи до август 2027 г. От 1-ви август 2024 г. влязоха в сила разпоредбите, които изграждат институционалната рамка за прилагането на закона, като създаването на национални надзорни органи и Европейски съвет по изкуствен интелект.

Законът установява насоки, основани на степента на риск, за доставчиците и внедрителите на системи с изкуствен интелект и модели с общо предназначение, които се отнасят до определени приложения на ИИ.

Основната цел на Акта е да “насърчи навлизането на ориентиран към човека и надежден ИИ, като същевременно гарантира високо равнище на защита на здравето, безопасността и основните права”. С други думи, Актът се стреми да гарантира безопасността и да защити основните ни човешки права, като същевременно подпомага внедряването на ИИ в нашето ежедневие и стимулира инвестициите и иновациите в рамките на ЕС.

Но също така Актът цели да предпази вътрешния пазар, като забрани въвеждането и разпространяването на продукти/системи с изкуствен интелект, които засягат здравето, безопасността или основните права на гражданите. Въпреки че акцентът на Aкта е върху високото ниво на защита на здравето и основните права, той също така цели да насърчи иновациите и растежа на стартиращите компании в Европа. Актът създава правна рамка, която позволява на корпорациите да разработват и тестват модели с общо предназначение преди да ги пуснат на пазара..

С приемането на Акта за ИИ Европейската комисия цели да увери гражданите, че системите с изкуствен интелект, действащи в рамките на Европейския съюз, са безопасни и не нарушават техните основни права. Рамката има за цел да осигури правна яснота за гражданите, необходима за поощряване на масовото приемане на ИИ системите. Тази комбинация от доверие, сигурност и яснота се очаква да насърчи иновациите и по-пълното интегриране на изкуствения интелект в ежедневието на европейците.

Основан на риска подход

Европейският регламент установява базирани на риска правила, като определя четири нива на риск за системите за ИИ:

  1. Неприемлив риск – напълно забранени практики.

  2. Висок риск – подлежат на строги изисквания и регулаторни задължения.

  3. Ограничен риск - изискват прозрачност при внедряване и използване.

  4. Минимален или никакъв риск – нерегулирани от регламента.

Забранените практики включват манипулативни техники или подсъзнателни стимули, за да променят поведението на хора по начин, водещ до вреда. Под  забранената категория попадат и  практики, свързани със  социално оценяване и класиране на хора въз основа на поведение, личност или биометрични данни, водещи до несправедливо третиране. Биометрично категоризиране по чувствителни признаци, извличане на лицеви образи без съгласие и емоционално разпознаване в работа и образование влиза също в сферата на забранените практики.

Следващото ниво на риск, определено в Акта за ИИ, са високорисковите системи. Основните сектори на високорискови системи са критичната инфраструктура, образование и професионално обучение, труд и заетост, биометрия и идентификация, достъп до основни публични и частни услуги, правоприлагане, миграция, убежище и граничен контрол и правосъдие и демократични процеси.

В критична инфраструктура попадат ИИ, които управляват системи в инфраструктурата, от която зависи безопасността и здравето. В правосъдие и демократични процеси попадат ИИ, използвани от съдилища или институции, подпомагащи решения по разрешения за престой, убежище и преминаване на граници. В правоприлагащата сфера попадат ИИ, използвани от полиция, прокуратура или следствени органи, които могат да ограничават права.

На следващо място  се намират системите с ограничен риск, който е разделен на три подкатегории.  Първо са системите с ИИ, с които хората директно си взаимодействат като познатите ни чатботове. Зачитани за ограничен риск са и системите с ИИ за разпознаване на емоции или за биометрично категоризиране, както и системи, с които хората генерират съдържание или т.нар. deep fake системи.

Особеността при такъв тип ИИ е, че винаги трябва да се покриват стандартите за прозрачност - когато се използва такъв тип ИИ, трябва да бъде ясно отбелязано, че има взаимодействие с ИИ или че съдържанието е генерирано от ИИ. Например, съдържанието (снимки), създадено или променено от ИИ, трябва да бъде изрично обозначено като такова, за да могат потребителите да го разпознават, когато се натъкнат на него. Същото важи и при комуникация с чатбот с изкуствен интелект.

На последно място са системите с ИИ, които са счетени за такива с незначителен или никакъв риск като системи за автоматично коригиране при писане, изкуствен интелект във видеоигри и др. Практически около 90% от системите с изкуствен интелект, използвани масово, попадат извън обхвата на Акта за ИИ. За тях Актът за изкуствен интелект не предвижда специална регулаторна рамка и те са оставени извън неговия обхват. Въпреки това доставчиците се насърчават да спазват кодекси за поведение за доброволно прилагане на част или всички изисквания за високорискови ИИ системи, които в момента се разработват като хармонизирани стандарти от JTC21 CEN-CENELEC.

Модели с общо предназначение (GPAI models)

Що се отнася до моделите с общо предназначение или т.нар.  GPAI (general purpose AI) модели, Актът въвежда специфични изисквания и контрол. Те са дефинирани от Акта като модели:

  • обучени с голямо количество данни;

  • с общ характер, способни да се справят с разнообразен набор от задачи;

  • и способни да бъдат интегрирани в множество приложения надолу по веригата.

За доставчиците на такива модели актът нормира както технически, така и юридически правила за съответствие като поддръжка в актуално състояние на техническата документация, въвеждане на политика за съответствие с Директивата на ЕС относно авторското право, публично оповестяване на достатъчно подробен обзор на тренировъчните данни на модела и др.

Допълнителни, по-тежки правила са установени за доставчици на модели с общо предназначение и системен риск. Това са модели със значително въздействие върху пазара на Съюза поради своя обхват или поради реалните си или разумно предвидими отрицателни последици върху общественото здраве, безопасността, обществената сигурност, основните права, или модели със значителна компютърна мощност.

Доставчиците на такива модели са задължени да извършват цялостно оценяване на модела, включително провеждане и документиране на adversarial тестове, за да се гарантира устойчивостта и надеждността му при различни условия на използване. Те трябва да ограничават системните рискове, включително техните възможни източници, чрез прилагане на мерки, които намаляват вероятността от негативни последици върху безопасността, сигурността или основните права на гражданите.

Освен това, доставчиците следва да осъществяват непрекъснато проследяване, документиране и незабавно докладване на сериозни инциденти до Службата по изкуствен интелект (AI Office), което позволява своевременно реагиране и ефективен надзор от страна на компетентните органи. Доставчиците са длъжни и  да осигуряват адекватно равнище на киберсигурност както за модела, така и за свързаната с него физическа инфраструктура, с цел предотвратяване на злоупотреби и защита от външни атаки.

Заключение

Актът за изкуствен интелект очертава една същностно иновативна, но строго структурирана рамка, която поставя значителни задължения върху разработчиците, доставчиците и потребителите на ИИ системи. Тези задължения целят не само да гарантират защита на основните права и общественото доверие, но и да създадат правна сигурност и предвидимост в бързо развиващата се технологична среда. Успешното прилагане на акта ще изисква както техническа адаптация, така и правно съответствие от страна на участниците на пазара.

В този аспект инструменти като Правен интелект могат да бъдат от полза за осигуряването на по-голямо и прецизно разбиране на европейските и национални разпоредби в областта и така да предотвратят незаконосъобразно поведение от страна на разработчици и внедрители, дължащо се на неразбиране на правните текстове. 


Статията е изготвена от Магдалена Георгиева за VOYCE.

VOYCE

Магдалена Георгиева

11.11.2025 г.

AI aсистент за български адвокати

Готови ли сте да започнете да работите по-бързо и ефективно?

Правен Интелект може да ви помогне за правни проучвания, отговори на въпроси на клиенти, създаване на клаузи и документи на база официални правни източници. Пробвайте го сега!

AI aсистент за български адвокати

Готови ли сте да започнете да работите по-бързо и ефективно?

Правен Интелект може да ви помогне за правни проучвания, отговори на въпроси на клиенти, създаване на клаузи и документи на база официални правни източници. Пробвайте го сега!

AI aсистент за български адвокати

Готови ли сте да започнете да работите по-бързо и ефективно?

Правен Интелект може да ви помогне за правни проучвания, отговори на въпроси на клиенти, създаване на клаузи и документи на база официални правни източници. Пробвайте го сега!

Последни статии

Logo

Българският правен асистент с изкуствен интелект



CuratedAI B.V.
ЕИК: 1 005.972.647
ул. Groeneweg 17, гр. Алст 9320, Белгия

Logo

Българският правен асистент с изкуствен интелект

CuratedAI B.V.
ЕИК: 1 005.972.647
ул. Groeneweg 17, гр. Алст 9320, Белгия