MacRumors

Skip to Content

Сотрудники OpenAI предупреждают об опасностях передовых ИИ

Несколько действующих и бывших сотрудников OpenAI и Google DeepMind сегодня опубликовали открытое письмо с предупреждением об опасностях передовых ИИ и текущем отсутствии надзора за компаниями, работающими над технологиями ИИ.

open ai logo
Сотрудники указывают на ряд рисков, с которыми мы сталкиваемся в связи с разработкой ИИ, включая дальнейшее закрепление существующего неравенства, манипуляцию и дезинформацию, а также потерю контроля над автономными системами ИИ, что, как говорится в письме, может привести к вымиранию человечества.

Компании, занимающиеся ИИ, имеют «сильные финансовые стимулы» для продвижения разработки и уклонения от обмена информацией о своих мерах безопасности и уровнях риска. «Мы не думаем, что на них всех можно положиться в плане добровольного обмена информацией», — говорится в письме, отмечающем, что именно действующие и бывшие сотрудники должны выступить.

Пока не будет эффективного государственного надзора за этими корпорациями, действующие и бывшие сотрудники являются одними из немногих людей, которые могут привлечь их к ответственности перед обществом. Однако широкие соглашения о конфиденциальности мешают нам высказывать свои опасения, за исключением случаев, когда мы обращаемся к тем самым компаниям, которые могут не решать эти проблемы. Обычные меры защиты осведомителей недостаточны, поскольку они фокусируются на незаконной деятельности, в то время как многие риски, вызывающие у нас озабоченность, еще не регулируются.

В конечном итоге сотрудники призывают компании, занимающиеся ИИ, предложить надежные меры защиты осведомителей за выступления об опасностях ИИ.

  • Избегать создания или применения соглашений, препятствующих критике по вопросам, связанным с риском.
  • Предложить поддающийся проверке анонимный процесс для сотрудников, чтобы они могли сообщать о проблемах, связанных с риском, совету директоров, регулирующим органам и независимым организациям с соответствующей экспертизой.
  • Поддерживать культуру открытой критики, чтобы сотрудники могли сообщать о проблемах, связанных с риском, в отношении технологий общественности, совету директоров, регулирующим органам и другим, при условии защиты коммерческой тайны.
  • Избегать ответных мер против сотрудников, которые публично делятся конфиденциальной информацией, связанной с риском, после того как другие процессы оказались неэффективными.

Письмо подписали в общей сложности 13 сотрудников: семь бывших сотрудников OpenAI, четыре действующих сотрудника OpenAI, один бывший сотрудник Google DeepMind и один действующий сотрудник Google DeepMind. OpenAI угрожала сотрудникам потерей накопленной доли за высказывания и заставляет их подписывать драконовские соглашения о неразглашении, которые умалкивают критику.

Письмо появилось в то время, когда Apple готовится объявить о множестве функций с поддержкой ИИ для iOS 18 и других программных обновлений в понедельник. Apple работает над собственной функциональностью ИИ, которая будет интегрирована в приложения по всей операционной системе, а также заключила соглашение с OpenAI об интеграции функций ChatGPT в iOS 18.