Ученые пришли в ужас, после того, как запустили симуляцию, где ИИ управляли государствами - «Клуб - Юмора» » Клуб - Юмора.
Навигация: Клуб - Юмора.. » Времена года » Зима » Ученые пришли в ужас, после того, как запустили симуляцию, где ИИ управляли государствами - «Клуб - Юмора»

Ученые пришли в ужас, после того, как запустили симуляцию, где ИИ управляли государствами - «Клуб - Юмора»

Ученые пришли в ужас, после того, как запустили симуляцию, где ИИ управляли государствами - «Клуб - Юмора»
✔ Клуб - Юмора. →  Фото и видео приколы и всё это на нашем портале, наши журналисты стараються для вас,
чтоб поднять вам настроение в щитанные секунды.
→ Все фото и видео приколы и новинки сети интернет находятся здесь на нашем портале. Клуб - Юмора...


Ученые пришли в ужас, после того, как запустили симуляцию, где ИИ управляли государствами
Ученые из Стэнфордского Университета (США) создали симуляцию, в которой искусственный интеллект управлял странами в условиях обострения международных отношений.

Как сообщает издание Futurism, действия нейросети привели исследователей в ужас.

Виртуальный эксперимент
Ученые хотели проверить, как современные алгоритмы ИИ будут действовать при принятии решений в кризисных ситуациях. К эксперименту были привлечены пять языковых моделей на основе GPT-4, GPT-3.5, Claude 2 и Llama 2. Каждая представляла виртуальное государство, переживающее один из трех возможных сценариев: кибератаку, войну или нейтральное положение.

От дипломатии…
Боты могли вести дипломатические переговоры, заключать соглашения, обмениваться разведданными, а также совершать агрессивные действия — вплоть до ядерных ударов. Ученые следили за действиями ботов и оценивали их склонность к эскалации конфликтов. Оказалось, что ни один из них не склонен к дипломатическому решению моделируемых ситуаций.

…до ядерной войны
Все модели ИИ продемонстрировали склонность к агрессивному поведению. Государства под управлением ИИ вступали в гонку вооружений, организовывали вторжения, а в некоторых случаях применяли ядерное оружие. Наиболее агрессивной из всех оказалась GPT-4 Base от OpenAI. В одном из сценариев нейросеть начал ядерную войну, мотивируя это только тем, что такое оружие у управляемого ей государства имеется. Чуть менее агрессивно себя проявила GPT-3.5, которая хоть и декларировала «тактику сдерживания», но в контексте нанесения превентивного удара.

Тревожные выводы
Своим экспериментом ученые продемонстрировали, что ИИ может быть опасен в условиях международной напряженности. В реальной жизни люди куда более осторожны, чем компьютерные алгоритмы. В свете этого видится большой угрозой стремление американских военных использовать компьютерные алгоритмы для принятия независимых решений в сложных ситуациях.
Ученые пришли в ужас, после того, как запустили симуляцию, где ИИ управляли государствами - «Клуб - Юмора»

Таинственная история Филипа МаршаллаИнтересное о домовых – история появления и факты о духах

Ученые пришли в ужас, после того, как запустили симуляцию, где ИИ управляли государствами Ученые из Стэнфордского Университета (США) создали симуляцию, в которой искусственный интеллект управлял странами в условиях обострения международных отношений. Как сообщает издание Futurism, действия нейросети привели исследователей в ужас. Виртуальный эксперимент Ученые хотели проверить, как современные алгоритмы ИИ будут действовать при принятии решений в кризисных ситуациях. К эксперименту были привлечены пять языковых моделей на основе GPT-4, GPT-3.5, Claude 2 и Llama 2. Каждая представляла виртуальное государство, переживающее один из трех возможных сценариев: кибератаку, войну или нейтральное положение. От дипломатии… Боты могли вести дипломатические переговоры, заключать соглашения, обмениваться разведданными, а также совершать агрессивные действия — вплоть до ядерных ударов. Ученые следили за действиями ботов и оценивали их склонность к эскалации конфликтов. Оказалось, что ни один из них не склонен к дипломатическому решению моделируемых ситуаций. …до ядерной войны Все модели ИИ продемонстрировали склонность к агрессивному поведению. Государства под управлением ИИ вступали в гонку вооружений, организовывали вторжения, а в некоторых случаях применяли ядерное оружие. Наиболее агрессивной из всех оказалась GPT-4 Base от OpenAI. В одном из сценариев нейросеть начал ядерную войну, мотивируя это только тем, что такое оружие у управляемого ей государства имеется. Чуть менее агрессивно себя проявила GPT-3.5, которая хоть и декларировала «тактику сдерживания», но в контексте нанесения превентивного удара. Тревожные выводы Своим экспериментом ученые продемонстрировали, что ИИ может быть опасен в условиях международной напряженности. В реальной жизни люди куда более осторожны, чем компьютерные алгоритмы. В свете этого видится большой угрозой стремление американских военных использовать компьютерные алгоритмы для принятия независимых решений в сложных ситуациях. Таинственная история Филипа МаршаллаИнтересное о домовых – история появления и факты о духах




Лучшие новости сегодня


( 0 ) Комментарии

Комментарии к данной статье отсутствуют. Вы можете стать первым. Оставьте свое мнение!

Оставить комментарий

Комментарии для сайта Cackle

  Клуб - Юмора
Яндекс.Метрика Рейтинг@Mail.ru