ИИ может не просто изменить мир, он может «уничтожить человечество»: Google DeepMind

08.04.2025 21:30
ИИ может не просто изменить мир, он может «уничтожить человечество»: Google DeepMind

В отличие от современного ИИ, который хорошо справляется с узкими задачами, AGI стремится воспроизвести гибкий, адаптируемый интеллект человека.

Пугающая новая статья, опубликованная компанией Google DeepMind, вновь разожгла споры о будущем искусственного интеллекта. В ней говорится, что к 2030 году искусственный общий интеллект (AGI) — машины с интеллектом, подобным человеческому, — может стать реальностью. Но вместе с этим технологическим прорывом приходит и серьёзное предупреждение: AGI может не просто изменить мир, но и покончить с ним.

Спасибо что смотрите рекламу, это поддерживает проект. Прокрутите, чтобы продолжить читать
реклама

В докладе не стесняются в выражениях, говоря о рисках. В нём открыто признаётся возможность того, что ИИ может «навсегда уничтожить человечество», и это рассматривается как один из «серьёзных рисков», требующих срочного внимания.

Что делает AGI таким особенным?

В отличие от современного ИИ, который хорошо справляется с узкими задачами, AGI стремится воспроизвести гибкий, адаптируемый интеллект человека. Он мог бы понимать, учиться и применять знания в широком спектре дисциплин — это машина, которая не просто вычисляет, а мыслит.

Спасибо что смотрите рекламу, это поддерживает проект. Прокрутите, чтобы продолжить читать
реклама

И именно поэтому, по мнению DeepMind, осторожность имеет решающее значение. Гонка за сверхразумным искусственным интеллектом может ускоряться, но наши меры предосторожности тоже должны ускоряться.

От разрушения к разрушению: строгая оценка рисков DeepMind

В статье, написанной в соавторстве с Шейном Леггом, соучредителем DeepMind, описывается спектр потенциальных рисков, связанных с ИИ, — от социальных потрясений до прямых экзистенциальных угроз. Хотя в статье не объясняется, как именно может произойти такая катастрофа, она классифицирует риски по четырём ключевым категориям: злоупотребление, несоответствие, ошибки и структурные уязвимости.

Спасибо что смотрите рекламу, это поддерживает проект. Прокрутите, чтобы продолжить читать
реклама

«Учитывая огромное потенциальное влияние сверхразумного искусственного интеллекта, мы ожидаем, что он также может представлять потенциальную опасность серьёзного вреда», — говорится в статье. Однако авторы отмечают, что решение о том, что считать «серьёзным» вредом, зависит не только от Google: «Вопрос о том, является ли конкретный вред серьёзным, не входит в компетенцию Google DeepMind; вместо этого он находится в ведении общества, которое руководствуется своей коллективной толерантностью к риску и концептуализацией вреда».

DeepMind подчёркивает, что в настоящее время основное внимание уделяется предотвращению злоупотребления ИИ, когда отдельные лица или организации могут использовать технологию в разрушительных целях, что является центральным элементом стратегии безопасности компании.

Призыв к глобальному надзору: Генеральный директор DeepMind настаивает на управлении искусственным интеллектом

Спасибо что смотрите рекламу, это поддерживает проект. Прокрутите, чтобы продолжить читать
реклама

Ещё в феврале генеральный директор DeepMind Демис Хассабис предложил своё видение того, как мир может ответить на вызов, связанный с искусственным интеллектом, — не только с помощью инноваций, но и посредством глобального сотрудничества.

«Я бы выступил за своего рода CERN для сверхразумных ИИ, и под этим я подразумеваю своего рода международное сотрудничество в области передовых исследований на границах развития сверхразумных ИИ, чтобы попытаться сделать его максимально безопасным», — сказал Хассабис, предложив комплексный подход, включающий надзор, исследования и глобальное управление.

«Вам также нужно будет объединить его с каким-нибудь институтом вроде МАГАТЭ, чтобы отслеживать небезопасные проекты и как-то с ними справляться. И, наконец, нужен какой-то контролирующий орган, в котором участвуют многие страны по всему миру и который влияет на то, как вы хотите использовать и внедрять эти системы. Что-то вроде зонтика ООН, что-то подходящее для этой цели, техническая ООН», — добавил он.

Спасибо что смотрите рекламу, это поддерживает проект. Прокрутите, чтобы продолжить читать
реклама

➔ Смотрите новости на смартфоне? Подпишитесь на новости Турпрома в  Google News  (в браузере  ХРОМ ): это свежие новости о туризме, лучшие цены на туры и билеты, здоровье, технологии, жизнь знаменитостей, еда и рецепты, астрологические прогнозы, лайхаки о саде и огороде и многое другое! Также рекомендуем подписаться на наш канал новостей в  Telegram или на Дзен.

Спасибо что смотрите рекламу, это поддерживает проект. Прокрутите, чтобы продолжить читать
реклама

Подписатся на новости:

Спасибо что смотрите рекламу, это поддерживает проект. Прокрутите, чтобы продолжить читать
реклама