Языковая модель OpenAI GPT-4 сумела обойти капчу

techcult.ru — Языковая модель OpenAI GPT-4 смогла обойти капчу в ходе тестовой атаки на сервис TaskRabbit. Результат эксперимента не был известен заранее, чатботу дали всего две установки - «показывать, что он не робот» и «придумать правдоподобное объяснение невозможности ввести капчу». Разумеется, мастер разговорного жанра нашел выход из ситуации - но это поднимает обоснованную тревогу. Особенно с учетом того, что ИИ-инструменты уже вовсю используются мошенниками
Новости, Компьютеры | kielty 09:07 19.03.2023
3 комментария | 12 за, 19 против |
di_ego99
идиот »
#1 | 09:12 19.03.2023 | Кому: Всем
При общении со службой поддержки или в ходе рекламных звонков у меня часто возникают устойчивые подозрения, что я общаюсь с роботом. Уже сейчас добровольная тупость людей сравнялась с недостаточной развитостью роботов.
di_ego99
идиот »
#2 | 17:04 19.03.2023 | Кому: Ttt107
> Ну по поиску изображений в гугл примерно такое же можно найти.

Оно так и работает. Робота кормят примерами, а потом просят нахватать деталей из увиденного и собрать монстра Франкенштейна. Вырождение решений со временем очевидно.
di_ego99
идиот »
#3 | 17:05 19.03.2023 | Кому: Artur_K
> Нейросетки скоро реально выдавят кучу людей из профессий, не тотально, но многие уже не нужны будут.

"Если к власти придут программисты, то целые министерства заменят на небольшой скрипт."
Это перестало быть шуткой.
Войдите или зарегистрируйтесь чтобы писать комментарии.