Изкуственият интелект – възможности и рискове

Споделете тази публикация

Въведение

Изкуственият интелект (ИИ) бързо се превръща в неразделна част от живота ни – от виртуалните асистенти и чатботовете до самоуправляващите се автомобили и системите за медицинска диагностика. Въпреки че ИИ има потенциала да революционизира много индустрии, той също така създава значителни рискове и предизвикателства, особено по отношение на безопасността, прозрачността и основните права. За да отговори на тези опасения, през април 2021 г. Европейската комисия предложи регламент относно изкуствения интелект (Предложение за регламент на Европейския парламент и на Съвета за определяне на хармонизирани правила относно изкуствения интелект (акт за изкуствения интелект) и за изменение на някои законодателни актове на Съюза), известен като Акт за изкуствения интелект[1]. Настоящата статия ще се съсредоточи върху персоналния и предметния обхват на регламента, както и върху основните му определения и потенциалното му въздействие.

Персонален и предметен обхват

Регламентът за изкуствения интелект ще се прилага за всички системи за изкуствен интелект, използвани в Европейския съюз, независимо дали са разработени в ЕС или извън него. Това означава, че всяко предприятие или организация, които разработват или използват ИИ в ЕС, ще бъдат субект на регламента. Въпреки това регламентът ще се прилага само за системите за ИИ, които са предназначени за използване в ЕС или които се използват в ЕС, което означава, че предприятията извън ЕС няма да попадат в обхвата на регламента, ако не възнамеряват да предлагат своите системи за ИИ на европейския пазар.

С регламента ще се създаде класификация на системите за ИИ, която ще включва четири категории, основани на степента на риска, който те представляват за безопасността и основните права. Категориите включват неприемлив, висок, нисък и минимален риск, като за всяка категория ще се прилагат различни изисквания и задължения. Системите с ИИ, които попадат в категорията с висок риск, като например тези, използвани в критичната инфраструктура, здравеопазването или правоприлагането, ще подлежат на най-строги изисквания, включително задължително тестване, документиране и човешки надзор над системата с ИИ, както и строги изисквания за защита на данните и киберсигурност.

Основни определения

В предложението са посочени няколко основни определения, които са важни за разбирането на обхвата и изискванията на регламента. Някои от основните определения включват:

Система за ИИ – всеки софтуер, който изпълнява задачи с известна степен на автономност, като обработва данни и взема решения, които засягат физическата или виртуалната среда.

Високорискова система за ИИ : Системата за ИИ се счита за високорискова, когато са изпълнени и двете посочени по-долу условия:

(а) системата за ИИ е предназначена да се използва като компонент за безопасност на продукт или сама по себе си е продукт, обхванат от законодателството на Съюза за хармонизация, чието изброяване ще бъде в отделно приложение към регламента (Приложение II), което ще позволи и бъдещото му допълване с оглед необходимостта да се отговори на бързо променящата се среда;

(б) от продукта, чийто компонент за безопасност е системата за ИИ, или от самата система за ИИ като продукт, се изисква да бъде извършено оценяване на съответствието от трета страна с оглед пускането на пазара или в експлоатация на този продукт съгласно законодателството на Съюза за хармонизация, изброено в приложението.

В акта се предвижда възможност за разширяване на определението чрез добавяне на системи за ИИ ad hoc.

Човешки надзор – възможността човек да се намесва в процеса на вземане на решения от дадена система на ИИ или да наблюдава работата на системата.

Прозрачност – възможността потребителят да разбере как работи дадена система за ИИ и защо тя взема определени решения.

Тези определения са важни за разбирането на задълженията и изискванията, които се прилагат към различните категории системи за ИИ, както и на мерките за прозрачност и отчетност, които предприятията и организациите трябва да прилагат, за да гарантират, че техните системи за ИИ са безопасни, етични и зачитат основните права.

Забранени практики в областта на ИИ

Регламентът забранява определени практики в областта на ИИ, които се считат за неприемливи. Те включват използването на ИИ за социален рейтинг, създаването или внедряването на системи за ИИ, които манипулират човешкото поведение, и използването на дистанционна биометрична идентификация в „реално време“ в публично достъпни пространства за целите на правоприлагането. Забраните обхващат практики, които имат значителен потенциал да манипулират лица чрез подсъзнателни техники или да използват уязвимостта на конкретни уязвими групи, като например деца или лица с увреждания, за да изкривят съществено тяхното поведение по начин, който може да причини на тях или на друго лице психологическа или физическа вреда.

Високорискови системи с изкуствен интелект – задължения на доставчиците и потребителите

В регламента са посочени няколко категории високорискови системи за ИИ, като например тези, използвани в критичната инфраструктура, здравеопазването и транспорта. Доставчиците на високорискови системи за ИИ трябва да гарантират, че техните продукти отговарят на определени изисквания, като например да разполагат с подходяща документация, план за управление на риска и система за човешки надзор. Те трябва също така да извършват оценки на съответствието и да получават сертификати от нотифицираните органи.

Доставчиците и потребителите на високорискови системи за ИИ трябва да спазват конкретни задължения, като например да гарантират безопасността, сигурността и точността на своите системи, както и да предприемат мерки за предотвратяване или намаляване на вредите, причинени от техните системи. Други страни, като вносители и дистрибутори на системи за ИИ, също трябва да спазват определени задължения, като например да проверяват съответствието на системите, които внасят или разпространяват.

Доставчиците на високорискови системи за ИИ трябва да уведомят съответните органи за намерението си да пуснат продуктите си на пазара и да предоставят подробна информация за характеристиките и предназначението на своите системи. Нотифицираните органи отговарят за извършването на оценки на съответствието и издаването на сертификати за високорискови системи за изкуствен интелект.

Стандарти и оценка на съответствието.

Регламентът установява рамка за стандартите, оценката на съответствието, сертификатите и регистрацията на системите за изкуствен интелект в ЕС. Той изисква разработването на хармонизирани стандарти за ИИ, използването на нотифицирани органи за оценка на съответствието и сертифициране, както и създаването на централизирана база данни на ЕС за регистрация на високорискови системи за ИИ.

За да се гарантира, че пуснатите на пазара системи за ИИ са в съответствие с Регламента и отговарят на необходимите изисквания, Европейската комисия ще разработи и периодично ще актуализира стандарти за високорискови системи за ИИ. Комисията ще създаде и система за оценка на съответствието, сертифициране и регистрация на високорискови системи за ИИ. Системата ще се основава на органи за оценяване на съответствието от трети страни, които ще оценяват системите за ИИ, за да гарантират, че те отговарят на изискванията на Регламента за ИИ.

Регламентът налага задължения за прозрачност на някои системи за ИИ, като например тези, използвани в дълбокопробивните системи, чатботовете и гласовите асистенти. Доставчиците на тези системи трябва да оповестяват използването на ИИ и да предоставят определена информация на потребителите, като например факта, че те взаимодействат със система с ИИ, възможностите и ограниченията на системата и всички потенциални рискове, свързани с нейното използване.

От някои системи с ИИ, които взаимодействат с хора или които оказват въздействие върху лица, ще се изисква да предоставят на потребителите информация за своите характеристики и за начина, по който функционират. Това включва информация за данните, използвани от системата на ИИ, параметрите, по които тя работи, и вероятността за резултатите, които генерира. Освен това системата за ИИ трябва да бъде проектирана по начин, който осигурява прозрачност и позволява човешка намеса, когато е необходимо.

Европейски съвет по ИИ и национални компетентни органи

С Регламента за ИИ се създава Европейски съвет по ИИ, който ще отговаря за консултирането на Комисията по въпроси, свързани с ИИ. Съветът ще подпомага Комисията и при разработването и актуализирането на списъка на високорисковите системи за ИИ, и на стандартите за тези системи. Освен това съветът ще отговаря за координиране на работата на националните компетентни органи и нотифицираните органи, както и за насърчаване на сътрудничеството между органите на държавите членки.

От всяка държава членка ще се изисква да определи национален компетентен орган, който да отговаря за изпълнението и прилагането на Регламента за ИИ. Националните компетентни органи ще отговарят за осъществяването на надзор на пазара, провеждането на инспекции и разследвания и налагането на санкции за неспазване на Регламента относно изкуственото осветление. От органите ще се изисква също така да си сътрудничат помежду си и с Европейския съвет по изкуствен интелект, за да се осигури последователно прилагане на регламента в целия ЕС.

Обмен на информация за инциденти и неизправности. Наблюдение и контрол на пазара.

За да се осигури високо ниво на безопасност за хората и околната среда, от доставчиците на системи за ИИ ще се изисква да докладват на националните компетентни органи за инциденти и неизправности, свързани с техните системи за ИИ. Освен това с Регламента за ИИ се създава система за обмен на информация за инциденти и неизправности между националните компетентни органи и Европейската комисия, за да може Комисията да предприеме подходящи мерки за справяне с евентуални рискове за здравето, безопасността или околната среда.

С Регламента се създава рамка за надзор на пазара и контрол на системите за ИИ на пазара на Съюза. Националните компетентни органи ще отговарят за извършването на дейности по надзор на пазара, включително за извършването на проверки на съответствието на системите за изкуствен интелект с Регламента за изкуствения интелект, и за налагането на санкции при неспазване на изискванията. Регламентът за ИИ предвижда също така възможността за забрана или ограничаване на пускането на пазара или използването на системи за ИИ, които представляват риск за здравето, безопасността или околната среда.

Кодекси за поведение. Поверителност и санкции.

Регламентът за ИИ предвижда разработването на доброволни кодекси за поведение от страна на индустрията и други заинтересовани страни с цел насърчаване на спазването на Регламента и етичните принципи, свързани с ИИ. Кодексите за поведение ще подлежат на одобрение от националните компетентни органи и могат да бъдат използвани като доказателство за съответствие с Регламента.

За да се гарантира защитата на поверителната информация, свързана със системите за ИИ, Регламентът предвижда защита на търговските тайни и друга поверителна информация в съответствие с правото на ЕС. В Регламента са предвидени и санкции за неспазване на неговите разпоредби, включително глоби в размер до 6 % от общия годишен оборот на дружеството.

Установяват се правила за защита на поверителната информация, получена в контекста на оценките на съответствието и дейностите по надзор на пазара. В него се предвиждат и санкции в случай на неспазване на регламента, които могат да варират от глоби до временно спиране или изтегляне на продукта от пазара.

Заключение

Предложеният регламент има за цел да гарантира, че ИИ се разработва, внедрява и използва по начин, който е безопасен и зачита основните права. Като определя ясни правила за доставчиците и потребителите на ИИ, регламентът се стреми да насърчи доверието в системите за ИИ и да подкрепи развитието на европейската индустрия за ИИ. Регламентът е част от по-широка стратегия на ЕС за ИИ, която има за цел да повиши конкурентоспособността на Европа в тази област, като същевременно защитава интересите на гражданите и насърчава развитието на изкуствения интелект.

 

[1] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206

Предишна публикация
Рубрика „Европейски Зелен пакт“: Предвидима и опростена регулаторна среда
Следваща публикация
Регламент за чуждестранните субсидии
Прочетете още
Skip to content