Языковая модель OpenAI GPT-4 сумела обойти капчу
techcult.ru Языковая модель OpenAI GPT-4 смогла обойти капчу в ходе тестовой атаки на сервис TaskRabbit. Результат эксперимента не был известен заранее, чатботу дали всего две установки - «показывать, что он не робот» и «придумать правдоподобное объяснение невозможности ввести капчу». Разумеется, мастер разговорного жанра нашел выход из ситуации - но это поднимает обоснованную тревогу. Особенно с учетом того, что ИИ-инструменты уже вовсю используются мошенниками
идиот »