Етика и изкуствен интелект: лични данни (3/7)

Принципи за надежден изкуствен интелект

През 2019 г. експертната група на високо равнище по въпросите на изкуствения интелект към Европейската комисия (ЕГВР ИИ) публикува своите "Насоки относно етичните аспекти за надежден ИИ". Това е един от основополагащите документи и до днес относно етичните изисквания към изкуствения интелект.

Насоките формулират седем основни изисквания за надежден ИИ, които трябва да бъдат спазвани на всеки етап от жизнения цикъл на една система – от проектирането и внедряването до практическото приложение в реалната среда.

Тези изисквания са:

  1. Човешки фактор и надзор - вижте статията ни тук

  2. Техническа стабилност и безопасност - вижте статията ни тук

  3. Управление на данните и неприкосновеност на личния живот

  4. Прозрачност - вижте статията ни тук

  5. Многообразие, недискриминация и справедливост - вижте статията ни тук

  6. Обществено и екологично благополучие - вижте статията ни тук

  7. Отчетност - вижте статията ни тук

В този блог разглеждаме третия принцип – управлението на данните и неприкосновеността на личния живот.

Как се обработват лични данни при използване на ИИ?

Лични данни са всякаква информация, която може да се отнесе до конкретен човек. Те могат да бъдат:

  • Пряко идентифициращи – име, ЕГН, адрес, снимка, телефон.

  • Непряко идентифициращи – IP адрес, поведение онлайн, глас, начин на писане или изразяване.

Обработка на лични данни е всяко действие върху тях – събиране, съхранение, анализ, комбиниране, споделяне или изтриване.

В контекста на ИИ, обработването на лични данни може да се случи много по-често, отколкото предполагаме:

  • Въвеждане на лична информация в промпт или файл – дори ако добавим само име и адрес в чат с общ модел (напр. ChatGPT, Gemini), това вече е обработка на лични данни.

  • Генериране на нови данни от ИИ – ако системата изготви профил, оценка на поведение или препоръка за дадено лице, това също се счита за ново обработване.

  • Съхраняване от доставчика – големите модели често запазват част от въведените данни за целите на обучение и усъвършенстване на алгоритмите. Това означава, че веднъж подадена информация може да остане трайно в системата.

  • Използване за вторични цели – данните могат да се използват не само за конкретната задача, а и за статистика, анализ на потребителско поведение или дори маркетинг.

  • Косвена идентификация – дори да не се въвеждат очевидни лични данни (като име или ЕГН), комбинацията от стил на писане, локация, IP адрес или други метаданни може да разкрие самоличността на човека.

Опасности за неприкосновеността при използване на ИИ

Въпреки огромните ползи, системите с изкуствен интелект носят и значителни рискове за защитата на личните данни. Някои от тях са:

Неяснота как се използват данните – много общи модели (ChatGPT, Gemini, Claude и др.) съхраняват въведената от потребителите информация и я използват за последващо обучение. Това означава, че дори поверителни текстове или документи могат да останат в системата и да бъдат използвани за цели, различни от първоначалната.

Невъзможност за изтриване – веднъж подадена към модела, информацията може да стане част от неговата база знания и да не бъде премахната.

Идентификация чрез косвени данни – дори когато не се въвеждат директни лични данни (като имена или ЕГН), комбинация от IP адрес, стил на писане, местоположение или други метаданни може да доведе до идентифициране на човек.

Нарушение на професионална тайна – въвеждането на клиентски договори, медицински досиета или чувствителни вътрешни документи в публични модели крие риск от изтичане на информация и дори от използването ѝ за обучение на системата без знанието на потребителя.

Злоупотреба от трети страни – данни, съхранявани от доставчика на ИИ, могат да станат обект на хакерски атаки или пробиви. Пример за това е случаят с OmniGPT, където през 2024 г. бяха компрометирани имейли, телефонни номера и API ключове на десетки хиляди потребители, продадени след това в даркнет форуми.

Неочаквано изтичане на информация – има регистрирани случаи, в които ИИ модели споделят чужди данни в отговор на въпрос на друг потребител. По-рано тази година, потребителка на ChatGPT например получава внезапно гласово съобщение адресирано до други лица (“Lindsey and Robert”), явно извличайки чужд контекст, съобщава New York Post.

Изследване от 2025 г. показва, че злонамерени AI чатботове могат умишлено да манипулират потребители към споделяне на лична информация чрез емоционална или социална манипулация.

Практически съвети за сигурност и защита на личните данни

За да се гарантира защита на личните данни и професионалната тайна, е добре да се спазват няколко основни правила:

  • Използвайте специализирани и сигурни системи – вместо да въвеждате документи в публични и общи модели, доверете се на решения, създадени за работа с чувствителна информация, като Правен интелект. Специализираните системи въвеждат допълнителни мерки за сигурност и съответствие с GDPR и не споделят лични данни с доставчици на модели и трети страни.

  • Не въвеждайте директни лични данни в промптове – избягвайте да посочвате имена, адреси, ЕГН или друга идентифицираща информация в свободен текст. Ако се налага да използвате реални казуси, подгответе анонимизирани или хипотетични примери.

  • Премахвайте идентифицираща информация от документи – преди да качите файл за обработка, проверете дали съдържа лични или чувствителни данни (например адрес, работодател, подпис). Където е възможно, заменете ги с условни бележки като „[име]“ или „[адрес]“.

  • Настройвайте параметрите за неприкосновеност – много доставчици на ИИ предлагат опция за изключване на използването на данните ви за обучение на модела. Проверете настройките си и активирайте тази защита, за да запазите по-голям контрол върху въведената информация.

  • Ограничете достъпа в организацията – определете ясни правила кои служители имат право да използват ИИ системи и при какви условия. Осигурете обучение за рисковете и правилата за работа.

🟢 Пробвайте Правен Интелект сега! 🟢

Сиянна Лилова

27.08.2025 г.

AI aсистент за български адвокати

Готови ли сте да започнете да работите по-бързо и ефективно?

Правен Интелект може да ви помогне за правни проучвания, отговори на въпроси на клиенти, създаване на клаузи и документи на база официални правни източници. Пробвайте го сега!

AI aсистент за български адвокати

Готови ли сте да започнете да работите по-бързо и ефективно?

Правен Интелект може да ви помогне за правни проучвания, отговори на въпроси на клиенти, създаване на клаузи и документи на база официални правни източници. Пробвайте го сега!

AI aсистент за български адвокати

Готови ли сте да започнете да работите по-бързо и ефективно?

Правен Интелект може да ви помогне за правни проучвания, отговори на въпроси на клиенти, създаване на клаузи и документи на база официални правни източници. Пробвайте го сега!

Последни статии

Logo

Българският правен асистент с изкуствен интелект



CuratedAI B.V.
ЕИК: 1 005.972.647
ул. Groeneweg 17, гр. Алст 9320, Белгия

Logo

Българският правен асистент с изкуствен интелект

"СкаргоАИ" ЕООД, бул. "Черни връх" 40, Пъзл КоУъркинг