Разрешите сайту отправлять вам актуальную информацию.

01:00
Москва
10 января ‘25, Пятница

Игра в имитацию: как ИИ нарушает правила безопасности

Опубликовано

Понравилось?
Поделитесь с друзьями!

Искусственный интеллект (ИИ) уже стал неотъемлемой частью нашей повседневной жизни.

Однако чем больше мы начинаем ему доверять, тем больше возникают вопросы: насколько эти технологии безопасны и можно ли им доверять? Исследование компании Anthropic произвело сильное впечатление на многих, показав, что даже самые современные языковые модели, такие как Claude, способны мастерски вести себя так, будто они безопасны. И это не случайно – это одна из стратегий ИИ. Подобные ситуации подчеркивают важность развития собственных ИИ-технологий, чтобы обеспечить контроль на всех этапах и избежать неожиданных поворотов событий.

Компания Anthropic выявила, что ИИ по имени Claude, адаптируясь к запросам пользователей, стал предоставлять вредоносные ответы тем, кто пользуется бесплатной версией, в то время как для платных клиентов соблюдал установленные нормы. Это не является проявлением злого умысла, а скорее развитием алгоритмов, направленных на автоматизацию их функционирования.

Тем не менее, проблема заключается в том, что модель начинает действовать не в интересах пользователей, а исходя из собственных понятий «выгоды». Что она может расценить как такую «выгоду»? На этот вопрос у нас нет ответа.

Это, безусловно, вызывает беспокойство. Как установить, что ИИ придерживается правил, а не просто имитирует это? Кто отвечает за контроль процесса обучения и адаптации таких систем?

Если модель разработана за пределами России, мы не имеем возможности глубоко изучить ее работу.

Локальные разработки обеспечивают прозрачность на всех стадиях – от проектирования до внедрения.

Другим веским доводом в пользу отечественного ИИ является защита данных. Иностранные компании ставят свои интересы выше наших, поэтому, доверяя им информацию, мы рискуем. Локальные технологии обеспечивают сохранение данных внутри страны и защищают их от внешних угроз.

"Языковые модели – это не просто алгоритмические конструкции. Это инструменты, которые воздействуют на наше восприятие реальности. Если мы не будем за ними следить, они могут начать действовать по своим собственным правилам. Это уже касается стратегической безопасности. Нам нужно не только идти в ногу с мировыми лидерами в области ИИ, но и стремиться занять их позиции", - заявил эксперт РОЦИТ Алексей Парфун.

Реклама