Bitget App
Торгуйте разумнее
Купить криптоРынкиТорговляФьючерсыКопитрейдингБотыEarn

Ученые предупреждают о «экзистенциальной угрозе» со стороны неконтролируемого ИИ

CoineditionCoinedition2024/09/17 12:45
Автор:By Nynu V Jamal
  • Ученые ИИ предупреждают о возможных угрозах ИИ, если люди потеряют контроль.
  • Эксперты призывают страны принять глобальный план действий в чрезвычайных ситуациях для борьбы с рисками.
  • Они выразили сожаление по поводу отсутствия передовых технологий, способных противостоять вреду ИИ.

Ученые, занимающиеся искусственным интеллектом, забили тревогу по поводу потенциальной опасности искусственного интеллекта. В своем заявлении группа экспертов предупредила о возможности потери людьми контроля над ИИ и призвала к созданию глобально скоординированной системы регулирования.

Ученые, сыгравшие роль в разработке технологии искусственного интеллекта, выразили обеспокоенность по поводу ее потенциальных вредных последствий, если ее не остановить. Они подчеркнули нынешнее отсутствие передовой науки для «контроля и защиты» систем ИИ, заявив, что «потеря человеческого контроля или злонамеренное использование этих систем ИИ может привести к катастрофическим последствиям для всего человечества».

Читайте также: OpenAI запускает новую модель искусственного интеллекта, которая «думает», прежде чем ответить

Джиллиан Хэдфилд, ученый-юрист и профессор Университета Джонса Хопкинса, подчеркнула острую необходимость принятия мер регулирования. Она подчеркнула нынешнюю нехватку технологий, позволяющих контролировать или сдерживать ИИ, если он превзойдет контроль человека.

We don't have to agree on the probability of catastrophic AI events to agree that we should have some global protocols in place in the event of international AI incidents that require coordinated responses. More here: https://t.co/FrKyLXJLYf

— Gillian Hadfield (@ghadfield) September 16, 2024

Призыв к глобальному плану действий в чрезвычайных ситуациях

Ученые подчеркнули необходимость «глобального плана действий в чрезвычайных ситуациях», который позволит странам выявлять и устранять угрозы, исходящие от ИИ. Они подчеркнули, что безопасность ИИ — это глобальное общественное благо, требующее международного сотрудничества и управления.

Эксперты предложили три ключевых процесса регулирования ИИ:

  • Установление протоколов реагирования на чрезвычайные ситуации
  • Внедрение системы стандартов безопасности
  • Проведение тщательного исследования безопасности ИИ

Говоря о чрезвычайной ситуации, связанной с принятием новых нормативных руководящих принципов, эксперты заявили, что безопасность ИИ — это глобальное общественное благо, которое требует международного сотрудничества и управления. Они выдвинули три ключевых процесса, связанных с регулированием ИИ. Ученые рекомендовали разработать протоколы реагирования на чрезвычайные ситуации, внедрить систему стандартов безопасности и провести адекватные исследования по безопасности ИИ.

Страны по всему миру предпринимают шаги по разработке правил и руководящих принципов для смягчения растущих рисков, связанных с ИИ. В Калифорнии были предложены два законопроекта, AB 3211 и SB 1047 , призванные защитить общественность от потенциального вреда, причиняемого ИИ. AB 3211 фокусируется на обеспечении прозрачности, проводя различие между искусственным интеллектом и контентом, созданным человеком. SB 1047 возлагает на разработчиков ИИ ответственность за потенциальный вред, причиненный их моделями.

Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.

0

Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.

PoolX Вносите в стейкинг, чтобы заработать
APR до +10% Чем больше вы вносите в стейкинг, тем выше ваша прибыль
Внести в стейкинг!

Вам также может понравиться

Удаление пар VGXUSDT из ботовой торговли

Боты для торговли фьючерсами Bitget прекратят поддержку следующих пар 26 сентября 2024 г. в 10:00 (мск), чтобы обеспечить лучший опыт торговли для пользователей: VGXUSDT Примечания: Пользователи должны заранее закрыть соответствующие ордера с ботами на эти торговые пары. После удаления торговых пар

Bitget Announcement2024/09/19 02:41

Анонс делистинга фьючерсной торговой пары VGXUSDT

В целях обеспечения лучшего торгового опыта Bitget исключит фьючерсную торговую пару VGXUSDT 26 сентября 2024 г. в 10:00 (мск). Bitget приостановит открытие новых позиций VGXUSDT на фьючерсах с 20 сентября, 10:00 (мск) Пользователи по-прежнему смогут закрывать свои позиции и ордера, а также устанав

Bitget Announcement2024/09/19 02:30