Етика и изкуствен интелект: отчетност (7/7)

Принципи за надежден изкуствен интелект

През 2019 г. експертната група на високо равнище по въпросите на изкуствения интелект към Европейската комисия (ЕГВР ИИ) публикува своите "Насоки относно етичните аспекти за надежден ИИ". Това е един от основополагащите документи и до днес относно етичните изисквания към изкуствения интелект.

Насоките формулират седем основни изисквания за надежден ИИ, които трябва да бъдат спазвани на всеки етап от жизнения цикъл на една система – от проектирането и внедряването до практическото приложение в реалната среда.

Тези изисквания са:

  1. Човешки фактор и надзор - вижте статията ни тук

  2. Техническа стабилност и безопасност - вижте статията ни тук

  3. Управление на данните и неприкосновеност на личния живот - вижте статията ни тук

  4. Прозрачност - вижте статията ни тук

  5. Многообразие, недискриминация и справедливост - вижте статията ни тук

  6. Обществено и екологично благополучие - вижте статията ни тук

  7. Отчетност

В този блог разглеждаме последния от принципите за надежден изкуствен интелект, а именно отчетността.

Какво означава принципът за отчетност?

Отчетността е ключов принцип, който осигурява връзката между всички останали изисквания за надежден изкуствен интелект. Тя гарантира, че системите с ИИ не са „черни кутии“, а подлежат на проверка, контрол и корекция на всяка стъпка от жизнения им цикъл - от проектирането и внедряването до ежедневното им използване.

По-конкретно, принципът за отчетност (accountability) изисква въвеждането на ясни механизми, чрез които може да се проследи кой, кога и как е взел решение, свързано със системата с ИИ.

Отчетността включва отговорността на доставчиците и внедрителите на системи с ИИ пред обществото, пред потребителите и пред закона.

Тя трябва да бъде прилагана:

  • Преди въвеждане на нова система с ИИ — чрез оценка на рисковете, тестване и предварителна документация.

  • По време на използването й — чрез постоянен мониторинг, доклади и възможности за корекции.

  • След вземането на решения и предприемането на действия — чрез възможност за обжалване, одит и правна защита.

Основни елементи на отчетността

Одит

Системите с ИИ трябва да подлежат на вътрешен и външен одит на алгоритми, данни и процеси на проектиране. Това е особено важно при разработването на високорискови или специализирани приложения.

Оценка и документация

Всяко решение трябва да бъде придружено от документация за използваните данни, алгоритми и потенциалните компромиси. Инструменти като оценки за въздействие на изкуствен интелект помагат да се установят и минимизират негативните ефекти върху хората и обществото.

Правна защита

Когато системата вземе неблагоприятно или неправилно решение, потребителите трябва да имат достъп до ясни механизми за правна защита. Това включва право на обжалване и право да се откаже автоматизирано вземане на решение.

Примери за отчетност

1. Алгоритмичен одит в Ню Йорк (САЩ)

От 2023 г. в Ню Йорк работодатели, които използват автоматизирани инструменти за подбор на кандидати, са задължени да подлагат тези системи на независим одит за пристрастия. Одиторите проверяват дали алгоритмите дискриминират по пол, раса или възраст. Резултатите трябва да бъдат публични, което осигурява отчетност както към кандидатите за работа, така и към регулаторите.

2. Европейския съюз – AI Act и FRIA

Регламентът за изкуствения интелект (AI Act) изисква за високорискови ИИ системи да се правят оценки за въздействие върху основните права (Fundamental Rights Impact Assessments или FRIA). Те включват:

  • анализ на рисковете за права като недискриминация, личен живот и достъп до правосъдие;

  • документиране на целите, данните и алгоритмите;

  • мерки за смекчаване на негативните ефекти.
    Тези оценки са задължителни за системи, които влияят върху образованието, заетостта, миграцията и правоприлагането.

3. Канада – Directive on Automated Decision-Making

Правителството на Канада изисква всички федерални институции, които използват ИИ за вземане на решения (например в имиграцията и социалните услуги), да извършват Algorithmic Impact Assessments (AIA). Това е форма на оценка на въздействието, която класифицира риска от ниво 1 (ниско) до ниво 4 (много високо). В зависимост от риска се прилагат допълнителни мерки: независим одит, публична документация и механизми за обжалване.

4. Холандия – SyRI и съдебен контрол

Системата SyRI (System Risk Indication), използвана за откриване на социални измами, беше обявена за противоречаща на правата на човека от съда в Хага през 2020 г. Основният аргумент бе липсата на достатъчна отчетност и прозрачност. Този случай подчерта значението на оценките за въздействие върху основните права и независимия надзор при внедряване на подобни системи.

➡️ Пробвайте Правен Интелект сега!

Сиянна Лилова

4.09.2025 г.

AI aсистент за български адвокати

Готови ли сте да започнете да работите по-бързо и ефективно?

Правен Интелект може да ви помогне за правни проучвания, отговори на въпроси на клиенти, създаване на клаузи и документи на база официални правни източници. Пробвайте го сега!

AI aсистент за български адвокати

Готови ли сте да започнете да работите по-бързо и ефективно?

Правен Интелект може да ви помогне за правни проучвания, отговори на въпроси на клиенти, създаване на клаузи и документи на база официални правни източници. Пробвайте го сега!

AI aсистент за български адвокати

Готови ли сте да започнете да работите по-бързо и ефективно?

Правен Интелект може да ви помогне за правни проучвания, отговори на въпроси на клиенти, създаване на клаузи и документи на база официални правни източници. Пробвайте го сега!

Последни статии

Logo

Българският правен асистент с изкуствен интелект



CuratedAI B.V.
ЕИК: 1 005.972.647
ул. Groeneweg 17, гр. Алст 9320, Белгия

Logo

Българският правен асистент с изкуствен интелект

"СкаргоАИ" ЕООД, бул. "Черни връх" 40, Пъзл КоУъркинг