Компании, занимающиеся искусственным интеллектом, которые нарушают новые правила ЕС, могут быть оштрафованы.

По адресу TPN/Lusa, in Новости, Бизнес, Преступление, Технический персонал, Европа · 22-04-2021 16:49:00 · 0 Комментарии

Компании, занимающиеся искусственным интеллектом (ИИ), которые не соблюдают новые правила Европейского Союза (ЕС), могут быть оштрафованы на сумму до 6% от своего глобального годового оборота.

После нескольких рекомендаций, принятых в последние три года в области искусственного интеллекта (ИИ) и рыночных консультаций, 21 апреля исполнительный орган ЕС представил предложенный регламент по защите ценностей и основных прав ЕС, а также безопасности пользователей с целью обязать системы, считающиеся высокорискованными, выполнять обязательные требования, связанные с их надежностью.

"Несоблюдение требований поставщиком АИ [...] может повлечь за собой штраф в размере до 6% от его глобального годового оборота", - объяснила на пресс-конференции в Брюсселе Маргрете Вестагер, исполнительный вице-президент Европейской комиссии с портфелем "Европа, пригодная для цифровой эры".

Благодаря подходу, основанному на риске, исполнительный директор ЕС предложил, чтобы в этом первом законодательном акте ЕС об искусственном интеллекте были введены жесткие меры контроля над системами, которые считаются высокорискованными, а системы, представляющие неприемлемый риск, были запрещены.

Однако, несмотря на то, что в новом законодательстве системы дистанционной биометрической идентификации упоминаются как "системы повышенного риска", Маргрете Вестагер разъяснила прессе, что существуют приложения, которые "не являются проблематичными", такие как распознавание лиц или отпечатки пальцев, при условии, что они предназначены для личного пользования.

"Одним из конкретных видов использования искусственного интеллекта, который относится как к категориям высокого риска, так и к категориям запрета, является биометрическая идентификация с помощью дистанционной идентификации, которая может быть использована для многих целей, и некоторые из них являются беспроблемными, например, когда она используется при пограничном контроле один на один таможенными органами или когда нас просят расписаться отпечатками наших пальцев или с помощью распознавания лиц", - уточнила она.

Напротив, "в нашем предложении мы делаем упор на дистанционную биометрическую идентификацию, при которой многие люди отслеживаются одновременно", - отметила Маргрете Вестагер, утверждая, что "любое такое использование сопряжено с большим риском с точки зрения основных прав".

"И именно поэтому мы подвергаем дистанционную биометрическую идентификацию еще более жестким правилам, чем другие случаи использования с высокой степенью риска", - обосновала она.

Далее он сказал, что "есть ситуации, когда [правил для систем повышенного риска] может быть недостаточно, а именно когда дистанционная биометрическая идентификация используется правоохранительными органами в режиме реального времени в общественных местах", поэтому ее использование теперь будет запрещено в ЕС, так как "в европейском обществе нет места для массового наблюдения".

Новый закон предусматривает, что все системы распознавания эмоций и биометрической классификации будут подчиняться особым требованиям прозрачности, а также должны рассматриваться как представляющие высокий риск в случаях использования, например, в сфере занятости, образования, правоохранительной деятельности, миграции и пограничного контроля.

Кроме того, по словам Маргрете Вестагер, "именно государства-члены должны будут определить, какой национальный орган будет наилучшим" для надзора за соблюдением новых правил, будь то, например, защита данных или наблюдение за рынком.

В этом досье, которое является приоритетным для Португалии, председательствующей в ЕС, Брюссель затем создает первое законодательство, направленное на AI, хотя лица, ответственные за эту технологию, уже подпадают под действие европейского законодательства об основных правах, таких как защита данных, неприкосновенность частной жизни и недискриминация.



Соответствующие статьи


Комментарии:

Прокомментируйте эту статью первыми
Интерактивные темы, присылайте нам свои комментарии/мнения по этой статье.

Пожалуйста, обратите внимание, что The Portugal News может использовать избранные комментарии в печатном издании газеты.