Европейская комиссия представила обширную нормативно-правовую базу по регулированию искусственного интеллекта (ИИ), которая в случае принятия может глобально изменить развитие технологии, cообщает Rusbase.«Искусственный интеллект должен быть не самоцелью, а инструментом, который служит людям с конечной целью повышения их благосостояния. Правила для искусственного интеллекта, распространенного на рынке Евросоюза или влияющего на граждан другим образом, должны ставить людей в центр. Люди должны доверять использованию технологий, знать о ее безопасности и соответствии закону, включая уважение основных прав»,- говорится в проекте постановления Еврокомиссии․В документе отмечается, что правила для искусственного интеллекта должны быть сбалансированными и не должны излишне ограничивать технологическое развитие или препятствовать этому процессу.Еврокомиссия предложила ввести четырехуровневую систему, определяющую развитие искусственного интеллекта. Она может включать в себя маркировки минимального, ограниченного, высокого риска, а также риск - полную запрещенность. Речь идет о потенциальном причинении вреда общественному благу.Так, приложения с высоким уровнем риска определяются как любые продукты, в которых искусственный интеллект «предназначен для использования в качестве компонента безопасности продукта» или же где ИИ сам является компонентом безопасности. В качестве примера приводится функция предотвращения столкновений в транспортных средствах. В категорию высокого риска также предлагается включать приложения на основе ИИ, предназначенные для следующих сфер: критически важная инфраструктура, образование, юриспруденция/судебная система, найм сотрудников. Приложение из этой категории могут поступать на рынок, но перед началом продаж они должны пройти соответствие требованиям - например, соблюдение правил Евросоюза при разработке на протяжении всего жизненного цикла продукта, строгие гарантии обеспечения конфиденциальности.Абсолютный запрет накладывается на использование технологий, которые способны манипулировать поведением человека, не учитывая его свободную волю. Особенно это касается приложений, которые используют уязвимые группы - по признаку возраста, ограниченных физических или умственных возможностей.Например, принятие закона может полностью наложить ограничения на использование в будущем полностью автономных роботов-хирургов․К приложениям с ограниченным риском относятся чат-боты на сайтах сервисов или содержащие дипфейк-контент. Создатель ИИ для таких приложений должен будет заранее сообщать пользователям, что они будут взаимодействовать с машиной, а не с человеком.Для продуктов с минимальным риском - таких как ИИ в видеоиграх и в целом для подавляющего большинства приложений - правила не вводят какие-либо особые требования для выполнения перед выходом на рынок.Нарушение, обход или игнорирование правил может повлечь за собой крупный штраф - например, в случае принятий правил за их несоблюдение нужно будет заплатить до €30 млн или 4% от годового дохода организации. Tweet Просмотры 1660