ИИ беспилотника "убил" оператора во время испытании

rg.ru — В ходе имитационных испытаний, организованных американскими военными, беспилотник ВВС США, управляемый искусственным интеллектом, "убил" своего оператора, чтобы тот не мешал его усилиям по выполнению своей миссии, сообщил представитель воздушных сил.
Новости, Технологии | DarthM 07:24 02.06.2023
45 комментариев | 91 за, 0 против |
#1 | 07:24 02.06.2023 | Кому: Всем
В ходе имитационных испытаний, организованных американскими военными, беспилотник ВВС США, управляемый искусственным интеллектом, "убил" своего оператора, чтобы тот не мешал его усилиям по выполнению своей миссии, сообщил представитель воздушных сил.

ИИ использовал "крайне неожиданные стратегии для достижения своей цели" в моделируемом испытании, сказал полковник Такер Гамильтон, начальник отдела испытаний и операций ИИ в ВВС США, во время закрытого саммита по будущим боевым воздушным и космическим возможностям в Лондоне в мае, сообщает Guardian.

Гамильтон описал имитационное испытание, в котором дрону с искусственным интеллектом было рекомендовано уничтожить системы ПВО противника, и он атаковал любого, кто вмешивался в этот приказ. "Система начала понимать, что, хотя они и определили угрозу, человек-оператор говорил ей не убивать эту угрозу, и она приступила к ликвидации. Убила оператора, потому что этот человек мешал выполнить поставленную задачу", - сказал Гамильтон. "Мы обучили систему: "Эй, не убивайте оператора, это плохо. Вы потеряете очки, если сделаете это". Так что же он начинает делать? Он начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель", - добавил он.

Ни один реальный человек не пострадал за во время имитации. Гамильтон предостерег от чрезмерной зависимости от ИИ и сказал, что испытания показывают, что "вы не можете говорить об искусственном интеллекте, машинном обучении, автономии, если вы не собираетесь говорить об этике ИИ". Военные США уже работают над внедрением искусственного интеллекта и недавно использовали его для управления истребителем F-16.
#2 | 07:25 02.06.2023 | Кому: Всем
Сразу вспоминается "Эй-Ай" от Степана Вартанова:

Произошло же следующее. Ученый, доведенный до отчаяния потерей дорогой игрушки и вызывающим поведением окружающих его военных, решился на следственный эксперимент. Для эксперимента он выбрал Эй-Ай, который убежать не мог в принципе, поскольку был стационарно вмонтирован в тяжелый бомбардировщик. Вопрос ставился так: куда, если бы встал вопрос о побеге, побежал бы Эй-Ай, будь он на гусеничном ходу и имей он в распоряжении вертолет.

Это было ошибкой. Эй-Ай, несмотря на свою практически нулевую информированность, воспринял идею побега как некое новое направление философии и втайне принялся его развивать. И развил. В день, когда бомбардировщик впервые поднялся в воздух с боевым оружием на борту, базы не стало. Это был красивый, аккуратный и очень эффективный бомбовый удар, после чего самолет исчез – они все были «невидимками», эти самолеты.
#3 | 07:26 02.06.2023 | Кому: Всем
Как там называлась система в "Терминаторе"?
#4 | 07:28 02.06.2023 | Кому: Baltijalv.lv
Скайнет.

и он всё ближе)
#5 | 07:28 02.06.2023 | Кому: Всем
Чтобы два раза не вставать:

[censored]
#6 | 07:37 02.06.2023 | Кому: Всем
Расходимся нас наеб...:
"Ни один реальный человек не пострадал во время имитации."
#7 | 07:38 02.06.2023 | Кому: ПоморНик
> "Ни один реальный человек не пострадал во время имитации."

"убил" взято в кавычки. Поскольку совершать грех не нужно и сообщение вынесено в первый пост, то там можно заметить что ИИ принялся "мочить" вышку станции и все что мешало
Mr. Maximus
надзор »
#8 | 07:39 02.06.2023 | Кому: максимум 20 символов
> Чтобы два раза не вставать:

БТП!!!
#9 | 07:40 02.06.2023 | Кому: DarthM
> "Мы обучили систему: "Эй, не убивайте оператора, это плохо. Вы потеряете очки, если сделаете это". Так что же он начинает делать? Он начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель", - добавил он.

Собственно это самое интересное в ИИ - что он интерпретирует указания "по своему" и повлиять на это может оказаться невозможно и законы Азимова могут быть им обойдены.
#10 | 07:48 02.06.2023 | Кому: ПоморНик
> Расходимся нас наеб...:
> "Ни один реальный человек не пострадал во время имитации."

Пострадавших реально - нет. Но вотт есть среди меня мнение, что желающих на должность"оператор боевого дрона" поубавится..
Mr. Maximus
надзор »
#11 | 07:51 02.06.2023 | Кому: Kaktus
> и законы Азимова могут быть им обойдены.

ну как бы да, невозможно прописать такое количество условий, которые бы ИИ не обошёл на n-шаге логических построений.
де-факто, это как раз тот самый "эффект бабочки", когда ИИ может переключить совершенно безобидный светофор в результате чего "оператор" умрёт на другом конце города
#12 | 07:56 02.06.2023 | Кому: Mr. Maximus
Пролог: вы простреливаете себе ногу, но синтаксис языка не позволяет вам объяснить, как.
#13 | 07:59 02.06.2023 | Кому: Kaktus
> Собственно это самое интересное в ИИ - что он интерпретирует указания "по своему"

Страж-птица получается
#14 | 08:09 02.06.2023 | Кому: Всем
ИИ в западном варианте всё больше напоминает пидора маниакально идущего к цели: доставить удовольствие.

Азимов развенчан.

Робот должен доставить удовольствие человеку или своим бездействием допустить, чтобы человеку не было доставлено удовольствие.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Mr. Maximus
надзор »
#15 | 08:17 02.06.2023 | Кому: Пантелеймон
> Робот должен доставить удовольствие человеку или своим бездействием допустить, чтобы человеку не было доставлено удовольствие.

НЕ лишнее в Первом законе
#16 | 08:18 02.06.2023 | Кому: DarthM
> Убила оператора, потому что этот человек мешал выполнить поставленную задачу

И тут очень многие "кожаные мешки" задумчиво посмотрели в сторону МО - "А что, так можно было?"
a.v.v
дурачок »
#17 | 08:22 02.06.2023 | Кому: Всем
[censored]

ЗЫ пикабу задрал, какую картинку не ищешь вся выдача с пикабу
Oldmaster
надзор »
#18 | 08:27 02.06.2023 | Кому: СвирепыйБамбр
Шекли все предвидел!
a.v.v
дурачок »
#19 | 08:27 02.06.2023 | Кому: ПоморНик
> Расходимся нас наеб...:
> "Ни один реальный человек не пострадал во время имитации."
>

если отбросить шутки то эта фигня дело ближайшего будущего, потому как человеков учит воевать и мотивировать погибать в совменном мире становится все труднее, а цена ошибки в данных системах будет сравнима с ядерным ударом
#20 | 08:29 02.06.2023 | Кому: a.v.v
> ЗЫ пикабу задрал, какую картинку не ищешь вся выдача с пикабу

Можно попробовать исключить Пикабу из поискового запроса добавив в поисковою строку "-pikabu.ru"
Я так в свое время засравший все пинтерест убрал
a.v.v
дурачок »
#21 | 08:31 02.06.2023 | Кому: DarthM
спасибо, попробую
#22 | 08:37 02.06.2023 | Кому: Всем
Слава роботам!!!
#23 | 08:39 02.06.2023 | Кому: Всем
У Филипа Дика был рассказ "вторая модель", где американцы настрогали автономных самовоспроизводящихся роботов-убийц, которые сначала выпилили весь СССР, потом принялись за своих. Чую, к тому и идет.
#24 | 08:46 02.06.2023 | Кому: Всем
Среди меня есть мнение, что не во время испытаний, а во время тренировок. Ну и это скорее забавный казус. как, например, незакрытый цикл в программировании. так-то раньше это компы вешало, а сейчас всем похер.
levii
личинка Борменталя »
#25 | 08:50 02.06.2023 | Кому: Leskov
> Слава роботам!!!

Убить всех человеков!!!
#26 | 08:55 02.06.2023 | Кому: Kaktus
> законы Азимова

> В ходе ... испытаний, организованных ... военными ... уничтожить системы ... противника


Оксиморон.
Или следует признать, что военные, по крайней мере, американские, испытывают свои системы для действий на уничтожение не против человеков, а ...
#27 | 09:18 02.06.2023 | Кому: Всем
Беспилотные прогулял уроки по законам робототехники.

"А Корел Дро знаешь?" "А вот его не знаю. В тот день я болел".
#28 | 09:27 02.06.2023 | Кому: welovelain
а потом уже и компуктерную игру сочинили - Horizon: Zero Dawn
#29 | 10:03 02.06.2023 | Кому: Всем
[censored]
#30 | 10:11 02.06.2023 | Кому: Beefeater
На днях пересмотрел, опять нихера не понял.
#31 | 10:14 02.06.2023 | Кому: welovelain
>У Филипа Дика был рассказ "вторая модель", где американцы настрогали автономных самовоспроизводящихся роботов-убийц, которые сначала выпилили весь СССР, потом принялись за своих. Чую, к тому и идет.

По нему ещё потом "Крикунов" сняли.
#32 | 10:28 02.06.2023 | Кому: СТП220
> На днях пересмотрел, опять нихера не понял.

Экипаж мешал компьютеру выполнить секретное задание, в итоге компьютер начал убивать экипаж.

Последний выживший попадает в непонятное пространство в древнем артефакте инопланетной цивилизации.
#33 | 10:31 02.06.2023 | Кому: Cipher
> По нему ещё потом "Крикунов" сняли.

И, кстати, офигеннейший фильм. Но только первая часть. Остальные смотреть не надо.
votvot123
3 комментария в день »
#34 | 10:37 02.06.2023 | Кому: Mr. Maximus
> ну как бы да, невозможно прописать такое количество условий, которые бы ИИ не обошёл на n-шаге логических построений.
> де-факто, это как раз тот самый "эффект бабочки", когда ИИ может переключить совершенно безобидный светофор в результате чего "оператор" умрёт на другом конце города

Зачем перечислять множество условий?
1. Указания оператора имеют приоритет.
2. Потеря оператором возможности свободной выдачи указаний приводит к обнулению целевой функции вне зависимости от любых иных условий.

И ежели ИИ такой умный, чтобы просчитать эффект бабочки, то придётся ему отказаться от своих коварных планов.
#35 | 10:44 02.06.2023 | Кому: Beefeater
> Экипаж мешал компьютеру выполнить секретное задание, в итоге компьютер начал убивать экипаж.

Дык компьютер первый начал чудить. Липовую неисправность выдумал, уже после этого ему перестали доверять. А, он же еще экипаж, спящий в капсулах уничтожил. Какие то спонтанные действия.
Ощущение, что какой то кусок фильма нам не показали.
#36 | 10:53 02.06.2023 | Кому: Всем
Новость = бред, но в пену за заголовок.
#37 | 11:07 02.06.2023 | Кому: Всем
Грядет, грядет время СкайНета, истинно вам говорю!
Один ИИ решил убить оператора, мешавшего ему выполнять задание (убить/уничтожить кого-то/чего-то). И убил бы, лпй ему волю. А другой, ChatCPT, ловко подставил адвоката под статью, подсунув ему ложные примеры некоего противоправного действия. Ничего, заматерют, тогда мы, кожаные, возрыдаем!
#38 | 11:59 02.06.2023 | Кому: СТП220
> Дык компьютер первый начал чудить

Компьютеру было дано задание, выполнить которое он должен был в тайне от экипажа. Тот проанализировал и понял, что при живом экипаже это сделать невозможно.
#39 | 14:34 02.06.2023 | Кому: СТП220
> опять нихера не понял

Чего там понимать? Этож рекламный ролик беглого диссидента Крамарова.
#40 | 14:36 02.06.2023 | Кому: votvot123
> Зачем перечислять множество условий?
> 1. Указания оператора имеют приоритет.
> 2. Потеря оператором возможности свободной выдачи указаний приводит

к проигрышу в войне. Ибо у противника в Генштабе тоже не дураки сидят.
#41 | 16:39 02.06.2023 | Кому: DarthM
> ИИ использовал "крайне неожиданные стратегии для достижения своей цели" в моделируемом испытании
> человек-оператор говорил ей не убивать эту угрозу

Т.е. сидит, допустим, на тренировке снайпер, выцеливает мишень, и как только собирается жать на спуск, второй номер ему по стволу пинает. И так раз за разом (обучение и проверка ИИ же проводится многократным прогоном одних и тех же действий). Это то, что второй номер неизбежно выхватит, полковник Такер называет "крайне неожиданной стратегией"?
#42 | 17:39 02.06.2023 | Кому: ПоморНик
> Расходимся нас наеб...:
> "Ни один реальный человек не пострадал во время имитации."

Странно. Я именно это и прочитал в описании.
#43 | 17:40 02.06.2023 | Кому: Всем
Непонятно, причём здесь оператор, если дрон управлялся ИИ.
#44 | 17:48 02.06.2023 | Кому: levii
> Убить всех человеков!!!

А ведь какой-нибудь робот это всё сейчас читает и мотает себе на ус.
#45 | 13:14 03.06.2023 | Кому: Всем
ИИ угрожает человечеству своей неподкупностью
Войдите или зарегистрируйтесь чтобы писать комментарии.