Москва
18 декабря ‘24
Среда

В мире предложили считать ИИ глобальным риском — ученые и эксперты подписывают особое заявление

Его предложили считать угрозой человечеству наравне с пандемией и ядерным ударом.

«Центр безопасности искусственного интеллекта» (Center for AI Safety) опубликовал заявление об опасности искусственного интеллекта. Авторы заявления считают, что ИИ является одной из угроз существования человечества и предлагают отнестись к этому максимально серьезно. Заявление подписывают ученые, IT-эксперты и политики со всего мира. Среди них — «крестный отец ИИ» Джеффри Хинтон и глава OpenAI Сэм Олтмен.

«Снижениериска исчезновения [человечества] из-за искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемия и ядерное оружие», — сказано в заявлении.

Интерес к нейросетям, а заодно обсуждение исходящих от них опасности обострились буквально за последние месяцы, когда стала набирать популярность американская нейросеть ChatGPT. Вместе с ней становятся популярны другие генеративные нейросети, которые умеют рисовать, создавать текст, писать музыку, создавать тексты, оживлять изображение, говорить определенным голосом. Искусcтвенный интеллект даже умеет писать код, что ставит под угрозу занятость ряда программистов.

Но главная угроза ИИ заключается в том, что он безэмоционален и не понимает этических моментов при выполнении поставленных задач. Например, одному американcкому адвокату, обратившемуся за помощью к нейросети, последняя, по человеческим меркам, буквально солгала, выдав фейк за правду.

Один из разработчикoв ChatGPT назвал нейросеть опаснейшим оружием в руках сумасшедшего диктатора. Или хотя бы мошенников. И нет никаких гарантий того, что ИИ не попадет в плохие руки. Кроме того, ИИ мастерски генерирует фейки — ложные фото-, видео-, а также звуковые материалы. С улучшением технологий фейки и правда могут стать неотличимыми друг от друга.

Полная версия