29-08-2025
Регулация на изкуствения интелект в ЕС – вече и на практика
Към август 2025 г. правилата на ЕС забраняват вредните приложения на изкуствения интелект и налагат строги задължения на доставчиците на AI с общо предназначение (включително големи езикови модели като ChatGPT) и на AI със висок риск

На 02.08.2025 г. значителна част от разпоредбите на Регламент (ЕС) 2024/1689 на Европейския Парламент и на Съвета от 13 юни 2024 година за установяване на хармонизирани правила относно изкуствения интелект („Регламента“) започнаха да се прилагат. Регламентът е първият законодателен акт, регулиращ приложението на системи с изкуствен интелект в световен мащаб, като има за цел да насърчи разработването и внедряването на системи за изкуствен интелект („ИИ“), които са надеждни и ориентирани към човека.

 

 

Регламентът се прилага по отношение на доставчици, внедрители, вносители и дистрибутори на системи с ИИ, които са установени в или оперират системи с ИИ на територията на Европейския съюз („ЕС“).

 

 

С регламента се забраняват определени начини на използване на системите с изкуствен интелект, които накърняват основните права и свободи на гражданите на ЕС непропорционално или застрашават самия общностен ред. Сред тези забранени форми на употреба са: използването на манипулативни и измамни техники, експлоатирането на уязвимите места на лица, социалното оценяване, предсказването на престъпно поведение чрез профилиране, създаването на бази данни за лицево разпознаване чрез масово извличане на изображения, биометричното категоризиране по чувствителни признаци и биометричната идентификация за правоохранителни цели, освен ако не се касае за издирване на жертва на престъпление, предотвратяване на заплаха за живота/терористично нападение или установяване на самоличността на заподозрени по тежки престъпления.

 

 

Контролът за законосъобразното използване на системите за ИИ се възлага на органи за оценяване на съответствието. Тези органи ще осъществяват предварителен и текущ контрол, ще проверяват техническите досиета и документация на системите за ИИ и ще бъдат компетентни да издават сертификати за съответствие на последните. С цел гарантиране, че оценяването на съответствието ще се извършва от надеждни и квалифицирани институции, държавите членки следва да определят административен орган, който да оценява кандидатите за органи на съответствието, да проверява дали последните отговарят на критериите за компетентност, безпристрастност и независимост и да упражнява надзор (България все още не е определила такъв национален орган).

 

 

От 02.08.2025 г. приложение намират още задълженията на доставчиците на системи за ИИ с общо предназначение, както и с общо предназначение, пораждащи системен риск.

 

 

По отношение системите за ИИ за общо предназначение (например - големи езикови модели като ChatGPT), доставчиците следва да изготвят и поддържат подробна документация, описваща характеристиките, включително архитектурата, методите на обучение, използваните данни и ограниченията на съответната система за ИИ, да спазват нормативните актове в сферата на авторското право, да предоставят на ползвателите необходимата информация, както и да регистрират системата за ИИ в публичната база данни на ЕС.

 

 

В допълнение към гореописаните задължения, доставчиците на системи за ИИ, пораждащи системен риск, следва да провеждат оценка на тези рискове и да прилагат мерки за смекчаването им, да провеждат тестове и да осигуряват високо ниво на киберсигурност, да представят редовно доклади за безопасност и резултати от тестовете пред Европейската комисия, както и да регистрират системите си, като ги обозначават по съответния начин.

 

 

Независимо от горното, санкционният режим относно доставчиците на модели за ИИ с общо предназначение, които виновно нарушават разпоредбите на регламента, няма да започне да се прилага преди 02.08.2026 г. Това разрешение ще позволи на бизнеса да се адаптира към новата правна рамка в съответствие с изискванията на регулаторните органи без да понася финансов риск.

 

 

Друго разрешение, което цели да е в услуга на бизнеса, е свързано с възможността европейските органи с компетентност в сферата на ИИ да изготвят кодекси за добри практики. Тези кодекси представляват незадължителни наръчници, които помагат на компаниите да създадат вътрешни механизми за прилагане на регламента и ги улесняват при изпълнение на задълженията им, вменени с него. В началото на август месец влезе в сила и първият кодекс за добри практики относно системите за ИИ с общо предназначение (https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai?utm_source=chatgpt.com).

 

 

Регламентът бележи нов етап в регулирането на нововъзникващите технологии, поставяйки ясни стандарти за безопасност, прозрачност и защита на основните права на гражданите. Прилагането на ключовите му разпоредби означава, че всички участници по веригата на доставки и използване на системи с ИИ трябва да предприемат своевременни действия за привеждане на дейността си в съответствие с новите правила, включително въвеждане на вътрешни процедури, изготвяне на техническа документация и механизми за контрол на риска. Това не само минимизира регулаторните и репутационни рискове, но и открива възможности за сигурно и етично внедряване на ИИ на общия пазар. В този контекст, своевременната правна консултация и подкрепа при адаптацията към новите изисквания могат да бъдат ключови за безпроблемното функциониране и устойчивото развитие на бизнеса.