В ЕС поддержали законопроект о регулировании ИИ: какие функции нейросетей предлагают запретить
Генерирующие контент нейросети предлагают оставить, но также предлагают обязательно помечать всё, что создано ИИ, а не человеком.
В Европарламенте два профильных комитета предварительно одобрили проект закона, который вводит регулирование искусственного интеллекта, пишет VC. В июне 2023 года за документ должен проголосовать Европарламент в целом, затем его обсудят с Еврокомиссией, а только после этого — Совет ЕС.
Закон предлагает определить три категории риска для ИИ: неприемлемые, высокие и низкие. Системы, основанные на искусственном интеллекте, которые несут неприемлемые риски, запретят. Для систем с «высокими» рисками введут юридические требования. Системы с низкими рисками трогать не будут.
Под системами с «неприемлемыми рисками» подразумеваются ИИ-системы, способные манипулировать и выставлять социальный рейтинг. Закон запретит использование ИИ для распознавания лиц с помощью биометрии в режиме реального времени в общественных местах. Также он запрещает распознавание эмоций у людей полицией, работодателями и в учебных заведениях.
Под запрет попадает использование искусственного интеллекта для разделения людей по расе, полу, этнической принадлежности, политической полиции и вероисповеданию. Также закон запретит собирать с камер и соцсетей биометрию с целью ее дальнейшего использования для распознавания лиц.
Авторы закона озаботились и предиктивной ИИ-аналитикой: предлагается запретить правоохранителям с помощью искусственного интеллекта прогнозировать правонарушения и тем более пытаться предсказать, склонен ли совершить преступление конкретный человек.
Как видно, к неприемлемым рискам относятся ИИ-системы, способные делать серьезные выводы о людях и их поведении.
К высоким рискам отнесли транспорт, управляемый ИИ, а также медицинское оборудование, потому что сбой в устройствах может стоить человеческой жизни.
А вот нейросети по типу GPT и подобные чат-боты закон не запрещает. Однако вводит обязательную маркировку контента, произведенного нейросетью. Более того, создателей обяжут указывать, какую авторскую информацию они «скормили» соцсети, на основе которой она генерирует новый контент.
Читайте также: Эксперт по ИИ уволился из Google, чтобы предупредить об опасности нейросетей