MacRumors

Skip to Content

Отраслевая группа, представляющая Apple и Google, публикует принципы политики в области ИИ

Совет по информационно-технологической индустрии (Information Technology Industry Council, ITI), отраслевая группа, представляющая ряд технологических компаний, таких как Apple, Google, Microsoft, Amazon и Facebook, на этой неделе опубликовал Принципы политики в области искусственного интеллекта [PDF], охватывающие ответственное и этичное развитие искусственного интеллекта.

itiaipolicyprinciples


«Мы признаем свою ответственность за интеграцию принципов в дизайн технологий ИИ, помимо соответствия существующим законам», — говорится в документе. Исследователи ИИ и заинтересованные стороны должны «уделять много времени» работе над обеспечением «ответственного проектирования и развертывания систем ИИ». Некоторые из конкретных затронутых политик изложены ниже:

Правительство: ITI поддерживает государственные инвестиции в области, связанные с ИИ, и призывает правительства оценивать существующие инструменты и проявлять осторожность перед принятием новых законов, правил и налогов, которые могут помешать ответственному развитию и использованию ИИ. ITI также призывает правительства не требовать от технологических компаний предоставления доступа к технологиям, исходному коду, алгоритмам и ключам шифрования.

Государственно-частные партнерства: Государственно-частные партнерства должны использоваться для ускорения исследований и разработок в области ИИ, демократизации доступа, приоритезации разнообразия и инклюзивности, а также подготовки рабочей силы к последствиям искусственного интеллекта.

Ответственное проектирование и развертывание: Высокоавтономные системы ИИ должны проектироваться в соответствии с международными конвенциями, которые сохраняют человеческое достоинство, права и свободы. Ответственность промышленности заключается в признании потенциала злоупотреблений и приверженности этике по замыслу.

Безопасность и управляемость: Автономные агенты должны рассматривать безопасность пользователей и третьих сторон как первостепенную заботу, а технологии ИИ должны быть направлены на снижение рисков для людей. Системы ИИ должны иметь средства защиты для обеспечения управляемости системы ИИ людьми.

Надежные и репрезентативные данные: Системы ИИ должны использовать большие наборы данных, чтобы избежать потенциально вредных предубеждений.

Далее ITI призывает к активной поддержке исследований в области ИИ, гибкому регуляторному подходу и сильным положениям по кибербезопасности и конфиденциальности.

Президент ITI Дин Гарфилд сообщил изданию Axios, что руководящие принципы были выпущены как способ вовлечения отрасли в обсуждение ИИ. В прошлом группа получила «болезненный опыт» пребывания в стороне от дебатов о новых технологиях.

«Иногда наш инстинкт — просто опустить голову и делать свою работу, разрабатывать, проектировать и внедрять инновации», — сказал он. «Но есть признание того, что наша способность к инновациям будет зависеть от того, как общество их воспринимает».