Етика и изкуствен интелект: човешки надзор (1/7)
Принципи за надежден изкуствен интелект
През 2019 г., експертната група на високо равнище по въпросите на изкуствения интелект към Европейската комисия (ЕГВР ИИ) публикува своите "Насоки относно етичните аспекти за надежден ИИ". Това е един от основополагащите документи и до днес относно етичните изисквания към изкуствения интелект.
Насоките формулират седем основни изисквания за надежден ИИ, които трябва да бъдат спазвани на всеки етап от жизнения цикъл на една система – от проектирането и внедряването до практическото приложение в реалната среда.
Тези изисквания са:
Човешки фактор и надзор
Техническа стабилност и безопасност - вижте статията ни тук
Управление на данните и неприкосновеност на личния живот - вижте статията ни тук
Прозрачност - вижте статията ни тук
Многообразие, недискриминация и справедливост - вижте статията ни тук
Обществено и екологично благополучие - вижте статията ни тук
Отчетност - вижте статията ни тук
Всеки от тях има ключова роля за това ИИ да бъде не само технологично напреднал, но и етично обоснован, устойчив и полезен за обществото. В настоящата поредица ще разгледаме поотделно всеки от принципите, като ще търсим тяхното значение за правната практика и за бъдещето на юридическата професия.
Започваме с първия и може би най-основополагащ принцип – човешкият фактор и надзор.
Какво означава „човешки фактор“?
Основната идея е, че човекът винаги трябва да има последната дума, особено когато решенията имат юридически, етични или социални последствия. Системите с ИИ не могат да подменят автономността на хората, особено когато става дума за решения с правни, етични или социални последици.
Европейският Акт за изкуствения интелект (AI Act) ясно формулира, че при високорискови ИИ системи те трябва да бъдат проектирани така, човекът да може ефективно да ги надзирава през целия им жизнен цикъл – да разбира възможностите и ограниченията на системата, да открива проблеми, да предотвратява прекомерна зависимост и дори да спира системата, ако е необходимо.
Принципът за човешки надзор е свързан с риска от прекомерно доверие към технологиите (automation bias) да обучат човешките надзорници да не се доверяват безкритично на изводите на ИИ, тъй като автоматизацията понякога кара хората да приемат резултати, дори когато имат достъп до противоречаща информация
По-конкретно, според Насоките на ЕГВР ИИ, човешкият фактор включва:
Разпределение на задачите между ИИ и хората, така че взаимодействията да са смислени и продуктивни.
Гарантиране, че системата подобрява човешките възможности, вместо да ги замества.
Предпазване от прекомерно доверие в автоматични резултати.
Видове човешки надзор
Човешкият надзор е фундаментален за предотвратяване и смекчаване на предразсъдъци, подобряване на прозрачността и информираността при вземане на решения. Надзорът може да се реализира по 3 основни различни модела:
Human-in-the-Loop (HITL) – човекът активно участва във всеки цикъл на вземане на решения. Това е подходящо при критични решения, но не винаги е практично. Включва активно участие на хората в обучението, оценката и функционирането на ИИ при етикетиране на данни, обратна връзка, корекции и крайното решение.
Human-on-the-Loop (HOTL) – човекът наблюдава системата и може да се намеси при нужда. Това е баланс между автономност на ИИ и контрол и е особено полезен метод при установени автономни системи, които все още изискват обучаваща обратна връзка.
Human-in-Command (HIC) – човекът запазва пълен контрол върху това кога и как се използва системата, включително възможността да спре нейното действие.
Значение за българската правна практика
В рамките на българското право човешкият надзор има ключова роля – той гарантира, че всяко решение, предложено от системи, които могат да функционират като AI адвокат или AI юрист, остава в обхвата на професионалната и правна отговорност на адвокатите.
Инструменти като Правен Интелект, както и универсални приложения като ChatGPT, Gemini или Claude, могат да подпомагат юристите чрез бързо генериране на тълкувания, анализи и възможни варианти. Но крайната преценка, правният съвет и подписът под документ винаги трябва да бъдат човешки.
Тази разграничителна линия е от решаващо значение: тя не само защитава интересите и правата на клиентите, но и изгражда трайно доверие в новите технологии. Само когато е ясно, че ИИ служи като подкрепа, а не като заместител на адвоката, правната общност и обществото могат да възприемат подобни решения като надеждни и етични.
❇️ Пробвайте Правен интелект сега! ❇️

Сиянна Лилова
26.08.2025 г.