Оценка на въздействие за изкуствен интелект или FRIA
Какво е оценка на въздействието за изкуствен интелект?
Оценката на въздействието върху основните права за системи с изкуствен интелект (Fundamental Rights Impact Assessment, FRIA) е методичен процес, който анализира как една система с изкуствен интелект може да повлияе на хората и обществото. Това е инструмент, който цели да гарантира, че въвеждането на технологиите е съпътствано от прозрачност, отчетност и доверие.
Оценката за въздействие на ИИ се извършва, за да:
идентифицира ползите и рисковете – не само в юридически аспект, но и за социалната среда, бизнес практиките и етичните стандарти;
предотвратява вреди като дискриминация, нарушаване на неприкосновеността на личния живот, липса на човешки контрол или зависимост от алгоритмични грешки;
балансира ползите и негативите през целия жизнен цикъл на системата – от разработването, през въвеждането до нейното реално използване;
създаде рамка за доверие, която улеснява внедряването на нови технологии в публичния и частния сектор, като показва на потребителите и гражданите, че рисковете са предвидени и управлявани.
Това я прави едновременно инструмент за управление на риска (за организациите и институциите, които внедряват ИИ), и инструмент за защита на обществения интерес (за гражданите, чиито права могат да бъдат засегнати).
Кога е необходима оценка на въздействието на ИИ?
Оценката на въздействието не е универсално изискване за всички системи с изкуствен интелект. Тя е особено необходима, когато една технология има потенциала да засегне основни човешки права, обществени услуги или жизненоважни сфери от икономиката.
Според Актa за изкуствения интелект (EU AI Act)
В Регламент 2024/1689, по-известен като Акта за изкуствения интелект или Акта за ИИ, европейският законодател въвежда задължението за провеждане на оценка за въздействие преди въвеждането на високорискови системи. Основната уредба се намира в чл. 27 от Акта за ИИ: "Оценка на въздействието върху основните права за високорискови системи с ИИ".
Задължението се прилага за системи с изкуствен интелект, когато се използват от:
Органи на публичното право и частни субекти, предоставящи обществени услуги, ако те внедряват високорискови решения (например в социални системи, образование, заетост, правоприлагане). Това означава, че оценката е задължителна при използването на системи с висок риск от публичната администрация (държавна и общинска) Изключение се прави единствено за системи, които са компоненти за безопасност на критична инфраструктура.
Организации и компании, които използват ИИ системи за финансови и застрахователни цели, като:
оценка на кредитоспособност или изготвяне на кредитни рейтинги,
определяне на риска и ценообразуване при животозастраховане и здравно осигуряване.
Законът подчертава, че оценката трябва да се извършва преди първото въвеждане на системата и да бъде актуализирана при всяка значителна промяна – например промяна в начина на използване, обхвата или засегнатата група хора. Това гарантира, че тя остава релевантна и полезна във времето.
Резултатите от оценката следва да бъдат уведомявани до органите за пазарен надзор, които могат да изискват допълнителна информация или да поставят условия за внедряване. В определени случаи органът може да прецени, че докладването не е задължително, но самата оценка остава необходима.
Извън законовата рамка
Дори когато не е изрично изискуема от Акта за ИИ, оценката е силно препоръчителна практика.
Компаниите и институциите, които я прилагат доброволно, демонстрират ангажираност към прозрачност, етика и отговорно внедряване на технологиите. Това може да бъде решаващо за изграждане на доверие у партньори, клиенти и граждани.
Какво включва оценката за въздействие (FRIA)?
Оценката на въздействието е цялостен процес, който обединява правни, технически и етични елементи. Тя не е само списък със задачи, а последователна рамка, която позволява на организациите да управляват рисковете и да гарантират отговорното внедряване на изкуствен интелект. Основните ѝ стъпки са:
1) Описание на системата и контекста на ползване
Първата стъпка е ясно да се дефинира каква е системата с изкуствен интелект, за какво ще се използва и в каква среда ще функционира. Това включва:
цел и предназначение на системата;
процеси, в които тя ще се прилага (например подбор на персонал, финансов анализ, предоставяне на обществени услуги);
времеви рамки и честота на използване;
идентифициране на групите хора, които могат да бъдат засегнати – клиенти, служители, граждани, уязвими групи.
Така се поставя основата за по-нататъшния анализ.
2) Описание на ползите и въздействието върху основни права
Следващият етап е двупосочен – от една страна се описват очакваните ползи (повишена ефективност, по-бързо обслужване, по-ниски разходи), а от друга – се анализират възможните негативни ефекти върху права като:
справедливост и недискриминация,
защита на личните данни,
надеждност и прозрачност на решенията,
сигурност и безопасност.
Тук се разглеждат конкретни рискове – например възможност за алгоритмична дискриминация, липса на човешки контрол или събиране на прекомерни лични данни.
3) Мерки за предотвратяване и намаляване на рисковете
Анализът няма смисъл без практически действия. Затова третата стъпка включва набор от технически и организационни мерки, които да ограничат или компенсират потенциалните рискове:
технически мерки (настройки, тестове за надеждност, мониторинг на системата);
човешки надзор (възможност решенията да бъдат преглеждани и потвърждавани от специалисти);
управление на риска (вътрешни политики, обучения за служители, процедури при инциденти).
Тези мерки осигуряват баланс между ползите от ИИ и защитата на хората.
4) Документиране и периодичен преглед
Накрая всичко трябва да бъде систематизирано в документ, който да служи като ориентир и доказателство за взетите мерки. Оценката обаче не е статичен доклад – тя е „жив документ“, който се актуализира винаги при промяна на системата или нейното приложение.
Документиране – ясно описание на установените рискове и мерки.
Периодичен преглед – редовно обновяване, за да се гарантира, че оценката отразява реалното състояние.
Докладване до надзорни органи, когато това е задължително или необходимо за прозрачност.

Примери и шаблони
Може да откриете полезни примери и шаблони за оценки на въздействие на следните линкове:
➡️ Пробвайте Правен Интелект сега!

Сиянна Лилова
10.09.2025 г.