Етика и изкуствен интелект: справедливост (5/7)
През 2019 г., експертната група на високо равнище по въпросите на изкуствения интелект към Европейската комисия (ЕГВР ИИ) публикува своите "Насоки относно етичните аспекти за надежден ИИ". Това е един от основополагащите документи и до днес относно етичните изисквания към изкуствения интелект.
Насоките формулират седем основни изисквания за надежден ИИ, които трябва да бъдат спазвани на всеки етап от жизнения цикъл на една система – от проектирането и внедряването до практическото приложение в реалната среда.
Тези изисквания са:
Човешки фактор и надзор - вижте статията ни тук
Техническа стабилност и безопасност - вижте статията ни тук
Управление на данните и неприкосновеност на личния живот - вижте статията ни тук
Прозрачност - вижте статията ни тук
Многообразие, недискриминация и справедливост
Обществено и екологично благополучие - вижте статията ни тук
Отчетност - вижте статията ни тук
Всеки от тях има ключова роля за това ИИ да бъде не само технологично напреднал, но и етично обоснован, устойчив и полезен за обществото. В настоящата поредица ще разгледаме поотделно всеки от принципите, като ще търсим тяхното значение за правната практика и за бъдещето на юридическата професия.
След като вече разгледахме първите 4 принципа, сега ще се спрем на петия: многообразие, недискриминация и справедливост. Това е особено важно за правния сектор, където всяко решение може да има сериозни последствия за живота и правата на гражданите.
Какво е алгоритмична пристрастност?
Алгоритмичната пристрастност възниква, когато системите с изкуствен интелект вземат решения, които систематично фаворизират една група за сметка на друга. Тя може да се появи на няколко нива:
Дизайнът на алгоритъма – начинът, по който се определят параметрите, критериите и целите на модела, може да въвежда неявни предразсъдъци. Например ако алгоритъмът за подбор на персонал отдава прекомерна тежест на предишен професионален опит, това може да засили историческа дискриминация срещу жени или малцинства.
Данните за обучение – ако те съдържат непълна, исторически натоварена или неточна информация, моделът ще я възпроизведе и дори ще я засили. Това е принципът “garbage in, garbage out”: пристрастни данни водят до пристрастни резултати.
Алгоритмичната пристрастност е особено опасна, защото често остава скрита зад фасадата на обективност. Решение, взето от компютърна система, изглежда неутрално, но в действителност може да бъде продукт на дълбоко заложени човешки предразсъдъци, прехвърлени чрез данните или дизайна.
Тъй като ИИ има силата да влияе върху ключови решения – кой получава работа, как се определя кредитен рейтинг, как се оценява риск от рецидив в съда. Всяка пристрастност в системата може да доведе до несправедливи, дискриминационни и дори незаконни резултати.
Елементарен пример за алгоритмична пристрастност от ежедневието можем да наблюдаваме при използването на различни системи с ИИ за генериране на изображения. По-долу можем да видим колаж от AI-генерирани картинки, които следва да изобразяват "успешен човек":

Принцип за справедливост
Принципът за справедливост в Насоките на Европейската комисия обхваща не само равенство, недискриминация и солидарност, но и защита на групите, изложени на риск от изключване. Той изисква системите с ИИ да гарантират равен морален статус и достойнство на всички хора, без привилегии или дискриминация.
Това надхвърля простото избягване на дискриминация въз основа на обективни критерии. Справедливостта означава, че ИИ системите не бива да произвеждат несправедливи изходни резултати, особенно когато това може да засегне уязвими групи като жени, хора с увреждания, етнически малцинства, деца, потребители и други лица, изложени на риск от социално изключване.
Материалноправно измерение
Справедливото развитие и използване на ИИ според Насоките трябва да осигурява:
справедливо разпределение на ползите и разходите,
липса на несправедливи предубеждения, дискриминация или заклеймяване,
приобщаващи данни, които представят различни групи от населението,
гарантирано равен достъп до образование, стоки, услуги и технологии,
неукриване, неманипулиране и неприкриване на свобода на избор към крайните ползватели,
баланс между средства и цели, чрез принципа на пропорционалност.
Ако несправедливите предубеждения бъдат избягнати, системите с ИИ дори могат да допринесат за повишаване на справедливостта в обществото.
Процесуално измерение
Справедливостта в ИИ включва и възможността хората да оспорват решения, взети от автоматизирани системи. За това е необходимо:
ясно определен субект отговорен за решението,
прозрачност и обяснимост на процесите на вземане на решение, и
ефективна правна защита за засегнатите страни.
Рискове при липса на справедливост
Липсата на справедливост при използването на ИИ може да доведе до сериозни проблеми в различни сфери:
Набор и подбор на персонал – автоматично отхвърляне на кандидатури на жени, защото исторически позицията е била заемана предимно от мъже (истински пример от Amazon).
Здравни услуги – погрешна оценка за необходимост от лечение за възрастни пациенти, поради статистически отклонения.
Съдебна система – алгоритми за оценка на риска от рецидив, които дават по-високи оценки за представители на етнически малцинства без обективни основания (истински пример от САЩ).
Граничен контрол – според изследвания, системи за лицево разпознаване, които работят по-добре при бели мъже (около 1% грешки), отколкото при тъмнокожи жени (до 35% грешки).
Принципът за справедливост и многообразие е ключов именно за:
Защита на уязвими групи
Без този принцип ИИ, под предпоставка за обективност, може да възпроизвежда системни предразсъдъци, насочени към най-уязвимите – резултат, който сме длъжни да предотвратим.Повишаване на общественото доверие
Когато системата уважава всички, включително изключените, и дава възможност за обратна връзка, тя се възприема като надеждна, етична и легитимна.Спазване на основните човешки права
Принципът защитава личната автономия, достъпа до услуги и фундаменталните свободи, които са в основата на правовото общество.Регулаторно съответствие и устойчивост
Един от основните стълбове в регламентите за високорискови ИИ системи (AI Act) е предотвратяването на дискриминация и осигуряване на равноправен достъп. Това прави справедливостта задължителна за някои видове системи с ИИ.
Значение за българската правна практика
В рамките на българското право принципът за справедливост има особено значение, тъй като всяко решение може пряко да засегне основни права и законни интереси. Дори когато адвокатите и юристите не разработват собствени системи с изкуствен интелект, използването на приложения като ChatGPT изисква критично мислене и човешка преценка.
Най-важното е да не приемаме, че генерираните от ИИ текстове или анализи са напълно обективни. Юристите трябва винаги да проверяват дали в тях няма стереотипи, дискриминационни формулировки или изключване на определени групи граждани. Това гарантира, че ИИ ще служи като помощник за правните експерти, а няма да бъде източник на предубедени или несправедливи решения.
🟢 Пробвайте Правен Интелект сега! 🟢

Сиянна Лилова
4.09.2025 г.




