Цукерберг поспорил с Маском из-за конца света

strana.ua — "Искусственный интеллект сделает в будущем нашу жизнь лучше, а предсказывать конец света очень безответственно".
Новости, Развлечения | Akym 08:50 25.07.2017
6 комментариев | 14 за, 1 против |
#1 | 09:33 25.07.2017 | Кому: Славянин
> Ни один так называемый искусственный интеллект не наделает столько, сколько может натворить долбаёб, сидящий не на своём месте. Такой взрослый, а пишет такие глупости.
> Да и большей части жителей планеты, вручную возделывающей поля и ведущей, по сути, первобытный образ жизни похер на эти "искусственные интеллекты", им бы дождик и солнышко светило, а то ведь голодать придется.

Читал я на досуге пару опусов, посвящённых ИИ - один давно, один недавно. Возможно, что одного и того же автора.
Общий смысл - с ИИ имеется неиллюзорный шанс очень быстро (куда быстрее, чем думают многие) въебаться куда серьезнее, чем кажется, да столь смачно, что миры "Терминатора" и "Матрицы" покажутся вполне себе уютными местечками.
Отсидеться в глухой деревне может и не получиться. В бункере - тоже.
А самый цимес - в том, что пока этот самый ИИ не будет создан, наверняка сказать ничего нельзя.
В целом, похоже, Маск прав, призывая к госрегулированию в этих исследованиях.
#2 | 10:30 25.07.2017 | Кому: Всем
> А вопрос "сильного" ИИ на повестке дня сегодня не стоит, так как для его развития нету технологических предпосылок.

Я прекрасно помню, например, как меня убеждали, что компы никогда не смогут распознавать человеческую речь.
Я прекрасно помню, на что были похожи системы автоматического перевода ещё 15 лет назад.
Так что отсутствие технологических предпосылок сейчас не гарантирует ничего в дальнейшем.
Тем более, что исследования идут и будут идти - хотя бы из опасения, что своим ИИ обзаведётся политический/коммерческий оппонент.

Очень может статься так, что интеллект вне биологического организма вообще невозможен. Наверное, это был бы наилучший вариант.
#3 | 10:58 25.07.2017 | Кому: Славянин
> С "сильным" ИИ ситуация вкорне другая по соаершенно объективным причинам.

По каким?
#4 | 11:59 25.07.2017 | Кому: Славянин
> Т.е. на сегодняшний день это чисто технически не осуществимая.

ХЕЗ.
Метод обратной разработки - не единственный.
Например, летать мы научились скорее не благодаря ему.
Да и организация человеческого мозга могёт оказаться вовсе не самой рациональной.
#5 | 16:42 25.07.2017 | Кому: Славянин
> На наш с тобой век, думаю, "сильный" ИИ увидеть не удасться.

Почитав, что пишут, надеюсь правы те, кто считает этот самый "сильный" ИИ (в той терминологии - сначала УЧИ, потом - ИСИ) вне тела невозможным, соответственно, он и не появится вообще никогда - уж больно перспективы неуютные там описаны.
Хотя автор скорее склонен считать, что никуда нам от УЧИ не деться, причём в не столь отдалённой перспективе.

PS:
УЧИ - искусственный интеллект уровня человеческого
ИСИ - искусственный суперинтеллект.
#6 | 18:12 25.07.2017 | Кому: Славянин
> Если на английском читаешь,

не особо, вникнуть в написанное не смогу.

> Достаточно прочесть выводы и взглянуть на оценочные цифры


А при поиске я и на другие цифири наталкиваюсь.
Там речь лишь о петабайтах:

[censored]

Полный английский вариант:

[censored]

Какая оценка более правильная?
Можешь обосновать (я, допустим - нет)?
И, повторяю, обратная разработка - не единственный путь.
Равно как УЧИ не обязательно подразумевает электронную копию мозга.
Может статься так, что мы вообще будем не в состоянии определить - обладает ли уже машина личностью, или только притворяется.
Войдите или зарегистрируйтесь чтобы писать комментарии.