politikus.ru Специалисты из России первыми в мире приблизились к созданию компьютерной программы, представляющей собой подлинный искусственный интеллект.
> Вообще ту и ежу понятно, что эта программа почти прошедшая тест, к рассуждениям не способна. Вопли про почти ИИ полная фигня. С равным успехом Сидорович в Сталкере это ИИ.
> Это ты сейчас описываешь примитивную программу-говоруна. Ты не сможешь отличить примитивную программу-говоруна от человека, если тебе зададут такую задачу?
Ты точно не сможешь обыграть в шахматы примитивную программу, которая всего лишь умеет быстро работать с огромной готовой базой :)
>>>>> RoM, Shtirliz я не пойму о чем вы спорите.
>>>>
>>>> Штирлиц уверен, что прохождение теста тьюринга равно появлению ИИ
>>>
>>> а что такое ИИ?
>>
>>[censored] >
> ну и в чем проблема, с технической точки зрения это ИИ, с точки зрения научной фантастики нет.
То что какая-то программа обманет энное количество людей (вот эту хрень[censored] 50человек приняли за человека), не значит что эта программа способна к каким-то рассуждениям. Она спосбона только обманывать. С технической точки зрения цена ей ноль.
>> Вообще ту и ежу понятно, что эта программа почти прошедшая тест, к рассуждениям не способна.
> а как ты определишь, что система отвечающая как человек неспособна к "рассуждению"?
Также как и то, что зелёная бумажка в его руках, которую нельзя отличить от доллара, - не доллар.
>> Вообще ту и ежу понятно, что эта программа почти прошедшая тест, к рассуждениям не способна. Вопли про почти ИИ полная фигня. С равным успехом Сидорович в Сталкере это ИИ.
>
> Если бы ты только знал, какой же бред ты пишешь.
> То что какая-то программа обманет энное количество людей (вот эту хрень[censored] 50человек приняли за человека), не значит что эта программа способна к каким-то рассуждениям. Она спосбона только обманывать. С технической точки зрения цена ей ноль.
я тест Тьюринга защищаю, на бота играющего на восприятии людей и не прошедшего этот тест мне пофиг ;)
>> Вообще ту и ежу понятно, что эта программа почти прошедшая тест, к рассуждениям не способна.
>
> а как ты определишь, что система отвечающая как человек неспособна к "рассуждению"?
Вы что такие тугие, а? Тест Тьюринга это субъективный тест. Треть собеседников приняли за человека тупую программу которая к рассуждения, принятию решений не способна - она может только имитировать беседу.
50 человек приняли это[censored] за человека. Считаете что это ИИ?
В 150 беседах кто-то и человека примет за бота. Тест Тьюринга ничерта не доказывает.
Можете тогда по игре в шашки определять ИИ. Монописуально.
>> То что какая-то программа обманет энное количество людей (вот эту хрень[censored] 50человек приняли за человека), не значит что эта программа способна к каким-то рассуждениям. Она спосбона только обманывать. С технической точки зрения цена ей ноль.
>
> я тест Тьюринга защищаю, на бота играющего на восприятии людей и не прошедшего этот тест мне пофиг ;)
Субъективная хрень. Как видишь при ином сотаве собеседников чатбот мог и пройти тест, но так бы и остался ботом.
В лучшем случае, это необходимое ( и то кто-нибудь примет человека за бота), но недостаточное условие для определения ИИ
>>> Вообще ту и ежу понятно, что эта программа почти прошедшая тест, к рассуждениям не способна.
>>
>> а как ты определишь, что система отвечающая как человек неспособна к "рассуждению"?
>
> Вы что такие тугие, а? Тест Тьюринга это субъективный тест.
все тесты в отношении систем предполагающих наличие интеллекта в какой то степени субъективны.
> Можете тогда по игре в шашки определять ИИ. Монописуально.
> То что какая-то программа обманет энное количество людей (вот эту хрень[censored] 50человек приняли за человека), не значит что эта программа способна к каким-то рассуждениям. Она спосбона только обманывать. С технической точки зрения цена ей ноль.
Хороший чат-бот, да. Однако 71% судей смогли же сказать, что это - бот. Почему остальные подумали по другому - вопрос к их интеллекту и логике.
Кто ж виноват, что огромное количество людей ведёт себя как чат-боты, пародирующие под 13летних одесских мальчиков?
Также вопросы: "а судьи кто?", "объясняли ли участникам правила? и сколько участников в шутку пыталось доказать что они - боты.", "могла ли машина, прошедшая тамошний конкурс, толковаться прошедшей тест Тьюринга юридически и общепризнано?"(чем этот тест будет отличаться от организованного мною во дворе собственного дома?).
Более того, судя по всему это был не обычный чат-бот.
> В 2011 г. разработанную командой под руководством Веселова технологию приобрела компания i-Free, базирующаяся в Санкт-Петербурге и специализирующаяся на проектах в области мобильных и NFC-технологиий, цифровой дистрибуции контента, электронных платежей и т.д.
> Технологию Веселова i-Free использовала в мобильном приложении Everfriends для ОС Android, которое можно назвать одним из конкурентов личного голосового помощника Siri, доступного только в iPhone. Как и Siri, оно использует технологию распознавания речи, умеет отвечать на вопросы и выполнять различные команды владельца смартфона.
>>>> Вообще ту и ежу понятно, что эта программа почти прошедшая тест, к рассуждениям не способна.
>>>
>>> а как ты определишь, что система отвечающая как человек неспособна к "рассуждению"?
>>
>> Вы что такие тугие, а? Тест Тьюринга это субъективный тест.
>
> все тесты в отношении систем предполагающих наличие интеллекта в какой то степени субъективны.
>
>> Можете тогда по игре в шашки определять ИИ. Монописуально.
>
> ок, назови расово верный тест на ИИ
Ну про необходимое, но недостаточное условие я уже выше писал.
Наверно набор тестов - от загадки про А и Б, распознавания речи, и до управления каким-нибудь техническим объектом в меняющихся условиях.
Сам понимаешь, за явным отсутсвием ИИ таких тестов нет. А отдельный тест пройдёт заточенная программа.
> Вы что такие тугие, а? Тест Тьюринга это субъективный тест. Треть собеседников приняли за человека тупую программу которая к рассуждения, принятию решений не способна - она может только имитировать беседу.
> 50 человек приняли это[censored] за человека. Считаете что это ИИ?
> В 150 беседах кто-то и человека примет за бота. Тест Тьюринга ничерта не доказывает.
> Можете тогда по игре в шашки определять ИИ. Монописуально.
> Субъективная хрень. Как видишь при ином сотаве собеседников чатбот мог и пройти тест, но так бы и остался ботом.
Ну прошёл бы он, какую юридическую роль это бы играло? Попал бы он на тест к экспертам. Там бы над ним и поржали.
> В лучшем случае, это необходимое ( и то кто-нибудь примет человека за бота), но недостаточное условие для определения ИИ
>> ок, назови расово верный тест на ИИ
> Ну про необходимое, но недостаточное условие я уже выше писал.
> Наверно набор тестов - от загадки про А и Б,
эту загадку многие люди не решат.
> распознавания речи,
незнакомый язык человек не поймет
> и до управления каким-нибудь техническим объектом в меняющихся условиях.
многие люди не справятся
вопрос: есть ли у этих людей разум?
> Сам понимаешь, за явным отсутсвием ИИ таких тестов нет. А отдельный тест пройдёт заточенная программа.
наоборот из-за отсутствия критериев (и еще много чего) ИИ нет ;)
Среди исследователей ИИ до сих пор не существует какой-либо доминирующей точки зрения на критерии интеллектуальности, систематизацию решаемых целей и задач, нет даже строгого определения науки. Существуют разные точки зрения на вопрос, что считать интеллектом.
Наиболее горячие споры в философии искусственного интеллекта вызывает вопрос возможности мышления творения человеческих рук. Вопрос «Может ли машина мыслить?», который подтолкнул исследователей к созданию науки о моделировании человеческого разума, был поставлен Аланом Тьюрингом в 1950 году. Две основных точки зрения на этот вопрос носят названия гипотез сильного и слабого искусственного интеллекта.
Термин «сильный искусственный интеллект» ввёл Джон Сёрль, его же словами подход и характеризуется:
Более того, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум — это разум.
При этом нужно понять, возможен ли «чистый искусственный» разум («метаразум»), понимающий и решающий реальные проблемы и, вместе с тем, лишённый эмоций, характерных для человека и необходимых для его индивидуального выживания.
Напротив, сторонники слабого ИИ предпочитают рассматривать программы лишь как инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей.
Мысленный эксперимент «Китайская комната» Джона Сёрля — аргумент в пользу того, что прохождение теста Тьюринга не является критерием наличия у машины подлинного процесса мышления. Аналогичную позицию занимает и Роджер Пенроуз, который в своей книге «Новый ум короля» аргументирует невозможность получения процесса мышления на основе формальных систем.
з.ы. я сторонник слабого ИИ, "китайскую комнату", в измененном виде, когда то применили на мне при приеме на работу, я прошел :D
з.з.ы. ты itшник?
>> Субъективная хрень. Как видишь при ином сотаве собеседников чатбот мог и пройти тест, но так бы и остался ботом.
>
> Ну прошёл бы он, какую юридическую роль это бы играло? Попал бы он на тест к экспертам. Там бы над ним и поржали.
>
Какие юристы? Какие эксперты? В тесте Тьюринга их нет. Если 150 или 1000 гопников примут чатбота за человека, то это уже ИИ согласно тесту. Это как оценка за артистичность в фигурном катании - чемпион ИИ и ниипёт
>> В лучшем случае, это необходимое ( и то кто-нибудь примет человека за бота), но недостаточное условие для определения ИИ
>
> Сформулируй достаточное, кто мешает?
А оно тебе надо? Можешь и сам подумать если не чатбот. И так понятно что если какая-то программа обманет какое-то количество людей и пройдет тест, то это не значит, что она способна делать что-то еще.
Пусть, получив информацию о заготовке и словесное описание предмета (не очень делальное, общее, а еще лучше, пусть само опишет предмет)предложит (словесно) путь изготовления. Не точной копии, само собой, но похожего.
Начать можно с прямоугольной заготовки и детали-кубика.
>>> ок, назови расово верный тест на ИИ
> > Ну про необходимое, но недостаточное условие я уже выше писал.
>> Наверно набор тестов - от загадки про А и Б,
>
> эту загадку многие люди не решат.
>
>> распознавания речи,
>
> незнакомый язык человек не поймет
>
>> и до управления каким-нибудь техническим объектом в меняющихся условиях.
>
> многие люди не справятся
>
> вопрос: есть ли у этих людей разум?
>
>> Сам понимаешь, за явным отсутсвием ИИ таких тестов нет. А отдельный тест пройдёт заточенная программа.
>
> наоборот из-за отсутствия критериев (и еще много чего) ИИ нет ;)
>
> Среди исследователей ИИ до сих пор не существует какой-либо доминирующей точки зрения на критерии интеллектуальности, систематизацию решаемых целей и задач, нет даже строгого определения науки. Существуют разные точки зрения на вопрос, что считать интеллектом.
> Наиболее горячие споры в философии искусственного интеллекта вызывает вопрос возможности мышления творения человеческих рук. Вопрос «Может ли машина мыслить?», который подтолкнул исследователей к созданию науки о моделировании человеческого разума, был поставлен Аланом Тьюрингом в 1950 году. Две основных точки зрения на этот вопрос носят названия гипотез сильного и слабого искусственного интеллекта.
> Термин «сильный искусственный интеллект» ввёл Джон Сёрль, его же словами подход и характеризуется:
> Более того, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум — это разум.
> При этом нужно понять, возможен ли «чистый искусственный» разум («метаразум»), понимающий и решающий реальные проблемы и, вместе с тем, лишённый эмоций, характерных для человека и необходимых для его индивидуального выживания.
> Напротив, сторонники слабого ИИ предпочитают рассматривать программы лишь как инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей.
> Мысленный эксперимент «Китайская комната» Джона Сёрля — аргумент в пользу того, что прохождение теста Тьюринга не является критерием наличия у машины подлинного процесса мышления. Аналогичную позицию занимает и Роджер Пенроуз, который в своей книге «Новый ум короля» аргументирует невозможность получения процесса мышления на основе формальных систем. >
> з.ы. я сторонник слабого ИИ
> з.з.ы. ты itшник?
Все это понятно. Но неужели непонятно, что ИИ измерением сопротивления не определишь? Это комплекс оценок.
А слабый ИИ это какой-то фиговый листок. Тогда и вышеупомянутый автомат с газводой и МК-61, это "слабый ИИ".
Это "инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей".
Можно обойтись и без столь громкой приставки "ИИ". Это напоминает как раньше любили торговые автоматы обзывать роботами-продавцами. Та же фигня.
Раньше работал.
>> Сформулируй достаточное, кто мешает?
>
> А можно я?
>
> Пусть, получив информацию о заготовке и словесное описание предмета (не очень делальное, общее, а еще лучше, пусть само опишет предмет)предложит (словесно) путь изготовления. Не точной копии, само собой, но похожего.
>
> Начать можно с прямоугольной заготовки и детали-кубика.
> Какие юристы? Какие эксперты? В тесте Тьюринга их нет. Если 150 или 1000 гопников примут чатбота за человека, то это уже ИИ согласно тесту. Это как оценка за артистичность в фигурном катании - чемпион ИИ и ниипёт
Результаты никто не признает. А ведь именно в этом смысл.
> А оно тебе надо? Можешь и сам подумать если не чатбот. И так понятно что если какая-то программа обманет какое-то количество людей и пройдет тест, то это не значит, что она способна делать что-то еще.
Я тебе уже давал выше ссылку на технологии твоего "чат-бота" и то, где они применяются. А ведь он не прошёл тест.
Также приведу ответ с[censored] > Это не боты стали продвинутее, это люди тупеют.
P.S. Вот когда в разговоре с экспертами программа сумеет их обдурить, тогда и можно будет говорить о чём-то. Тест же с обычными людьми некорректен в связи с их непрофессионаоизмом и элементарным незнанием предмета помноженное на малое время разговора.
>>> Сформулируй достаточное, кто мешает?
>>
>> А можно я?
>>
>> Пусть, получив информацию о заготовке и словесное описание предмета (не очень делальное, общее, а еще лучше, пусть само опишет предмет)предложит (словесно) путь изготовления. Не точной копии, само собой, но похожего.
>>
>> Начать можно с прямоугольной заготовки и детали-кубика.
>
> это называется интеллектуальная система.
А чем она от искуственного интеллекта отличается?
Раз в тесть тьюринга оно якобы уже умет осмысленно трындеть, так пусть покажет действительно обдуманную речь.
> Все это понятно. Но неужели непонятно, что ИИ измерением сопротивления не определишь? Это комплекс оценок.
ты пытаетесь подойти к ИИ чисто математически и в этом проблема вашего восприятия данной темы,
сдается мне, в вузе ИИ тебе отдельной темой не преподавали, но думою "теория игр" была.
> А слабый ИИ это какой-то фиговый листок. Тогда и вышеупомянутый автомат с газводой и МК-61, это "слабый ИИ".
да, автомат с газировкой - это слабый ИИ, думаю более правильно - это очень простая ИС.
> Это "инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей".
> Можно обойтись и без столь громкой приставки "ИИ". Это напоминает как раньше любили торговые автоматы обзывать роботами-продавцами. Та же фигня.
Как указывает председатель Петербургского отделения Российской ассоциации искусственного интеллекта Т. А. Гаврилова, в английском языке словосочетание artificial intelligence не имеет той слегка фантастической антропоморфной окраски, которую оно приобрело в довольно неудачном русском переводе. Слово intelligence означает «умение рассуждать разумно», а вовсе не «интеллект», для которого есть английский аналог intellect.
просто не надо вкладывать в понятие ИИ смыслы из научной фантастики.
>> Какие юристы? Какие эксперты? В тесте Тьюринга их нет. Если 150 или 1000 гопников примут чатбота за человека, то это уже ИИ согласно тесту. Это как оценка за артистичность в фигурном катании - чемпион ИИ и ниипёт
>
> Результаты никто не признает. А ведь именно в этом смысл.
>
>> А оно тебе надо? Можешь и сам подумать если не чатбот. И так понятно что если какая-то программа обманет какое-то количество людей и пройдет тест, то это не значит, что она способна делать что-то еще.
>
> Я тебе уже давал выше ссылку на технологии твоего "чат-бота" и то, где они применяются. А ведь он не прошёл тест.
> Также приведу ответ с[censored] >> Это не боты стали продвинутее, это люди тупеют.
>
> P.S. Вот когда в разговоре с экспертами программа сумеет их обдурить, тогда и можно будет говорить о чём-то. Тест же с обычными людьми некорректен в связи с их непрофессионаоизмом и элементарным незнанием предмета помноженное на малое время разговора.
> А чем она от искуственного интеллекта отличается?
Интеллектуа́льная систе́ма (ИС, англ. intelligent system) — это техническая или программная система, способная решать задачи, традиционно считающиеся творческими, принадлежащие конкретной предметной области, знания о которой хранятся в памяти такой системы. Структура интеллектуальной системы включает три основных блока — базу знаний, решатель и интеллектуальный интерфейс[1].
Интеллектуальные системы изучаются группой наук, объединяемых под названием «искусственный интеллект».
> Раз в тесть тьюринга оно якобы уже умет осмысленно трындеть, так пусть покажет действительно обдуманную речь.
>> Все это понятно. Но неужели непонятно, что ИИ измерением сопротивления не определишь? Это комплекс оценок.
>
> ты пытаетесь подойти к ИИ чисто математически и в этом проблема вашего восприятия данной темы,
> сдается мне, в вузе ИИ тебе отдельной темой не преподавали, но думою "теория игр" была.
>
>> А слабый ИИ это какой-то фиговый листок. Тогда и вышеупомянутый автомат с газводой и МК-61, это "слабый ИИ".
>
> да, автомат с газировкой - это слабый ИИ, думаю более правильно - это очень простая ИС.
>
>> Это "инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей".
>> Можно обойтись и без столь громкой приставки "ИИ". Это напоминает как раньше любили торговые автоматы обзывать роботами-продавцами. Та же фигня.
>
> Как указывает председатель Петербургского отделения Российской ассоциации искусственного интеллекта Т. А. Гаврилова, в английском языке словосочетание artificial intelligence не имеет той слегка фантастической антропоморфной окраски, которую оно приобрело в довольно неудачном русском переводе. Слово intelligence означает «умение рассуждать разумно», а вовсе не «интеллект», для которого есть английский аналог intellect. >
> просто не надо вкладывать в понятие ИИ смыслы из научной фантастики.
Ну тогда и Фау-2 можно назвать звездолётом. Просто дать определение, что звёздолёт, это ракета которая какое-то время движется в сторону звёзд. Не будем вкладывать в это определение смысл из нф.
>> А чем она от искуственного интеллекта отличается?
>
> Интеллектуа́льная систе́ма (ИС, англ. intelligent system) — это техническая или программная система, способная решать задачи, традиционно считающиеся творческими, принадлежащие конкретной предметной области, знания о которой хранятся в памяти такой системы. Структура интеллектуальной системы включает три основных блока — базу знаний, решатель и интеллектуальный интерфейс[1].
> Интеллектуальные системы изучаются группой наук, объединяемых под названием «искусственный интеллект».
Так что, описанный мной тест уже какая-то ИС может пройти?
>> просто не надо вкладывать в понятие ИИ смыслы из научной фантастики.
>
> Ну тогда и Фау-2 можно назвать звездолётом. Просто дать определение, что звёздолёт, это ракета которая какое-то время движется в сторону звёзд. Не будем вкладывать в это определение смысл из нф.
я просто хочу сказать, что когда ученые говорят об ИИ, они имеют ввиду нечто отличное от НФ.
Со своей колокольни могу дать такое определение: интеллектуальной системой можно названть систему, которая способна к обобщению информации - будучи обученной (тем или иным алгоритмом) на одной выборке примеров, она может выдавать правильные ответы на примеры, которые в эту выборку не входят. Процент ошибки такой системы может служит мерой интеллектуальности системы.
>> Это уже выход за рамки теста Тьюринга.
>
> Тест Тьюринга, где судьи - эксперты? Чем?
Да тем что в нём не указано кто должен беседовать. Вот в том и субъективность и неопределеность теста, что с одними собеседниками чатбот пройдет тест, с другими не пройдёт, а стретьим и человека ботом признают.
Не годится он для однозначного определения ИИ
>>> просто не надо вкладывать в понятие ИИ смыслы из научной фантастики.
>>
>> Ну тогда и Фау-2 можно назвать звездолётом. Просто дать определение, что звёздолёт, это ракета которая какое-то время движется в сторону звёзд. Не будем вкладывать в это определение смысл из нф.
>
> я просто хочу сказать, что когда ученые говорят об ИИ, они имеют ввиду нечто отличное от НФ.
Тест Тьюринга - допотопный метод. Наука и теч в области ИИ двинулся настолько далеко вперед, что тестом Тьюринга в подавляющем большинстве решаемых с помощью ИИ задач - нахуй никто не пользуется. Процент 30% данный им - он фактически от балды. Критерий был предложен в то время, когда про искусственный интеллект в основном только фантазировали, поэтому он не привязан к реальным задачам.
>> Так что, описанный мной тест уже какая-то ИС может пройти?
>
> у тебя там скорее ТЗ, а не тест.
Именно тест. Давай на тебе проверим? :) Представь, сейчас тест тьюринга, я тебя не вижу, мы общаемся.
Камрад SCAR, племяш попросил меня сделать ему игрушку в виде двух шаров, вертикально поставленных один на другой. Верхний шар несколько меньше нижнего. Из верхнего шара горизонтально торчит небольшой конусный выступ. Я купил в магазине прямоугольный, довольно длинный брусок. Какой порядок действий посоветуешь?
(предварительно я мог бы рассказать тебе в рамках обучения как сделать кубик или цилиндр, предположим, я или кто-то еще ранее это все рассказал)
> Да тем что в нём не указано кто должен беседовать. Вот в том и субъективность и неопределеность теста, что с одними собеседниками чатбот пройдет тест, с другими не пройдёт, а стретьим и человека ботом признают.
Петя из соседнего двора говорит одно, а эксперт с мировым именем - другое. Ты кому поверишь? К программе, которая победила стадо идиотов, все конечно приглядятся, но никто, кроме истеричных СМИ, называть её ИИ не будет. А вот если программа сумеет обмануть группу экспертов - тут уже пойдёт серьёзный разбор как такое могло произойти.
> Не годится он для однозначного определения ИИ
Ещё никто не смог пройти тест. Проблема состоит в том, что рамок что такое ИИ пока ещё никто толком не очертил. Но как ты верно заметил до, данный тест является необходимым условием и все на этом сходятся.
>> Да тем что в нём не указано кто должен беседовать. Вот в том и субъективность и неопределеность теста, что с одними собеседниками чатбот пройдет тест, с другими не пройдёт, а стретьим и человека ботом признают.
>
> Петя из соседнего двора говорит одно, а эксперт с мировым именем - другое. Ты кому поверишь? К программе, которая победила стадо идиотов, все конечно приглядятся, но никто, кроме истеричных СМИ, называть её ИИ не будет. А вот если программа сумеет обмануть группу экспертов - тут уже пойдёт серьёзный разбор как такое могло произойти.
>
В тесте ничего не говорится про Петю и экспертов. Только о том что разумный человек в беседе принимает программу за человека. Ты же не откажешь даже гопнику Пете в разумности?
Вполне возможно что при дальнейшем развитии методов анализа, с прикрученными семантическими сетями и хз что там еще, она сможет обмануть в разговоре не только гопника, но и эксперта. Но то что программа обыгрывает в шахматы чемпионов мира не говорит то том, что разумна.
>
> Ещё никто не смог пройти тест. Проблема состоит в том, что рамок что такое ИИ пока ещё никто толком не очертил. Но как ты верно заметил до, данный тест является необходимым условием и все на этом сходятся.
> В тесте ничего не говорится про Петю и экспертов. Только о том что разумный человек в беседе принимает программу за человека. Ты же не откажешь даже гопнику Пете в разумности?
Угу. Разумный человек. Разумен ли гопник Петя - это очень интересный вопрос. Разумен ли лось Бонифаций? Разумна ли макака Гораций? В чём принципиальное отличие между ними и гопником Петей?
> Вполне возможно что при дальнейшем развитии методов анализа, с прикрученными семантическими сетями и хз что там еще, она сможет обмануть в разговоре не только гопника, но и эксперта.
Эксперты руководствуются задачами и прочими заковыристыми методами. Если программа способна их решить - она точно ИИ.
> Но то что программа обыгрывает в шахматы чемпионов мира не говорит то том, что разумна.
Нет. Это лишь говорит о том, что её алгоритмы совершеннее сформированных лучшим из людей.
> Но недостаточным. См. "Китайская комната"
Пока ещё ни один такой бот не прошёл тест. Заранее о возможности комнаты говорить бессмысленно.
Фактически трактовка этой комнаты - это как[censored] в применимости к текстовому общению. Однако это невозможно.
На практике составление этой базы(словаря), в виде обучения программы на огромном количестве ответов, в итоге приведёт к тому, что на один и тот же вопрос, звучащий по разному, программа имеет очень высокий шанс дать разные ответы.
>> В тесте ничего не говорится про Петю и экспертов. Только о том что разумный человек в беседе принимает программу за человека. Ты же не откажешь даже гопнику Пете в разумности?
>
> Угу. Разумный человек. Разумен ли гопник Петя - это очень интересный вопрос. Разумен ли лось Бонифаций? Разумна ли макака Гораций? В чём принципиальное отличие между ними и гопником Петей?
Демагогия.
>> Вполне возможно что при дальнейшем развитии методов анализа, с прикрученными семантическими сетями и хз что там еще, она сможет обмануть в разговоре не только гопника, но и эксперта.
>
> Эксперты руководствуются задачами и прочими заковыристыми методами. Если программа способна их решить - она точно ИИ.
Допустим программа имитирует беседу с шестилетним ребёнком или тем же гопником Петей (только не надо говорить что они неразумны) все заходы экспертов обломаются об "Чо?" или "Я ненаю". И кто там - реальный Петя или бот, не отличишь. Можно сказать, что там боты, но тогда и реальные гопник Петя и детсадовец Вася не пройдут тест. И тогда говорить о прохождении теста как о критерии бессмысленно.
>> Но то что программа обыгрывает в шахматы чемпионов мира не говорит то том, что разумна.
>
> Нет. Это лишь говорит о том, что её алгоритмы совершеннее сформированных лучшим из людей.
>
Скорее глубина просчета больше, а алгоритмы те же. Ну т.е неразумная программа может обыграть человека.
Сейчас чатботы обманывают гопников. Послезавтра обманут следака. Вопрос совершенствования алгоритма.
Как на опредленном уровне обыграть чемпиона мира стало не проблемой, так и совершенствования чатботов на принципе "китайской комнаты" рано или поздно бот будет признаваться ботом не чаще чем человек будет признаваться ботом.
>> Но недостаточным. См. "Китайская комната"
>
> Пока ещё ни один такой бот не прошёл тест. Заранее о возможности комнаты говорить бессмысленно.
Что значит "не прошел тест"? Для кого-то ведь прошел. Если вдруг какая-то группа скажет, что эта программа прошла тест Тьюринга, всегда можно сказать что эксперты не те и вопросы не те.
Есть ли набор вопросов который однозначно обозначит что это человек, а это бот?
>
> Фактически трактовка этой комнаты - это как[censored] в применимости к текстовому общению. Однако это невозможно.
>
> На практике составление этой базы(словаря), в виде обучения программы на огромном количестве ответов, в итоге приведёт к тому, что на один и тот же вопрос, звучащий по разному, программа имеет очень высокий шанс дать разные ответы.
Беседа, это не шашки - идеального разговора не существует. И бот и человек могут уходить от неудобных вопросов, сами задавать вопросы, тупить, упрямиться, психовать (программ имитировать). Да вотт на вотте как начинают вертеть жопой и переводить стрелки не отвечая на неудобные вопросы - чисто чатбот.
Да если бы. Тьюринг предполагал в то время, что в тесте будут нормальные люди участвовать, а не 13 летние одесские мальчики с отклонениями.
> Допустим программа имитирует беседу с шестилетним ребёнком или тем же гопником Петей (только не надо говорить что они неразумны) все заходы экспертов обломаются об "Чо?" или "Я ненаю". И кто там - реальный Петя или бот, не отличишь. Можно сказать, что там боты, но тогда и реальные гопник Петя и детсадовец Вася не пройдут тест. И тогда говорить о прохождении теста как о критерии бессмысленно.
Чего уж мелочиться - давай с разу с однолетним или с каким-нибудь дауном. Вот ты выше сам говоришь "демагогия", но сам же в неё с радостью и плюхаешься. Зачем?
> Сейчас чатботы обманывают гопников. Послезавтра обманут следака. Вопрос совершенствования алгоритма.
Если будут строить из себя 3хлетнего мальчика с отклонениями - уже сейчас могут. А вот если без скидок - то и лет через 10 будут топтаться там же. И даже через 100 лет не смогут обмануть следака. Потому что в китайской комнате нет логики.
> Как на опредленном уровне обыграть чемпиона мира стало не проблемой, так и совершенствования чатботов на принципе "китайской комнаты" рано или поздно бот будет признаваться ботом не чаще чем человек будет признаваться ботом.
Да неужели? С каких это пор боты способны логически аргументировать и строить свои мысли хотя бы на определённую тему? Китайская комната на это не способна. Она способна только уходить от разговора, давить на эмоции и односложно отвечать на вопросы.
> Что значит "не прошел тест"? Для кого-то ведь прошел. Если вдруг какая-то группа скажет, что эта программа прошла тест Тьюринга, всегда можно сказать что эксперты не те и вопросы не те.
Эксперты с мировыми именами- это всегда эксперты с мировыми именами. В отличии от меня, тебя и гопника Пети.
> Есть ли набор вопросов который однозначно обозначит что это человек, а это бот?
Есть. Чем тебе элементарные задачи не угодили? Можешь дать ссылку на хотя бы одного бота, который их решает?
> Беседа, это не шашки - идеального разговора не существует. И бот и человек могут уходить от неудобных вопросов, сами задавать вопросы, тупить, упрямиться. Да вотт на вотте как начинают вертеть жопой и переводить стрелки не отвечая на неудобные вопросы - чисто чатбот.
Словарь в китайской комната - это один в один карта ходов идеальной партии в беседе. Это прямо в её описании говорится. Человек в китайской комнате не будет уходить от вопросов, тупить и упрямиться. Он просто не понимает того, что он делает. Точно также бот не может уходить от вопросов тупить и упрямиться по своей воле, если это отсутствует в словаре. Уходить от вопросов, тупить и упрямиться будет лишь словарь.
>> Демагогия.
>
> Да если бы. Тьюринг предполагал в то время, что в тесте будут нормальные люди участвовать, а не 13 летние одесские мальчики с отклонениями.
>
Сферические люди в вакууме они такие
>> Допустим программа имитирует беседу с шестилетним ребёнком или тем же гопником Петей (только не надо говорить что они неразумны) все заходы экспертов обломаются об "Чо?" или "Я ненаю". И кто там - реальный Петя или бот, не отличишь. Можно сказать, что там боты, но тогда и реальные гопник Петя и детсадовец Вася не пройдут тест. И тогда говорить о прохождении теста как о критерии бессмысленно.
>
> Чего уж мелочиться - давай с разу с однолетним или с каким-нибудь дауном. Вот ты выше сам говоришь "демагогия", но сам же в неё с радостью и плюхаешься. Зачем?
А кого она должна имитировать? Энштейна?
>> Сейчас чатботы обманывают гопников. Послезавтра обманут следака. Вопрос совершенствования алгоритма.
>
> Если будут строить из себя 3хлетнего мальчика с отклонениями - уже сейчас могут. А вот если без скидок - то и лет через 10 будут топтаться там же. И даже через 100 лет не смогут обмануть следака. Потому что в китайской комнате нет логики.
>
>> Как на опредленном уровне обыграть чемпиона мира стало не проблемой, так и совершенствования чатботов на принципе "китайской комнаты" рано или поздно бот будет признаваться ботом не чаще чем человек будет признаваться ботом.
>
> Да неужели? С каких это пор боты способны логически аргументировать и строить свои мысли хотя бы на определённую тему? Китайская комната на это не способна. Она способна только уходить от разговора, давить на эмоции и односложно отвечать на вопросы.
Чем не человек?
>
>> Что значит "не прошел тест"? Для кого-то ведь прошел. Если вдруг какая-то группа скажет, что эта программа прошла тест Тьюринга, всегда можно сказать что эксперты не те и вопросы не те.
>
> Эксперты с мировыми именами- это всегда эксперты с мировыми именами. В отличии от меня, тебя и гопника Пети.
>
>> Есть ли набор вопросов который однозначно обозначит что это человек, а это бот?
>
> Есть. Чем тебе элементарные задачи не угодили? Можешь дать ссылку на хотя бы одного бота, который их решает?
И кто сказал, что человек их будет решать? Он может послать собеседника со своими задачками. Как и бот. В чем отличие от бота? Тест Тьюринга это НЕ ОПРЕДЕЛЕНИЕ РАЗУМА, а ИМИТАЦИЯ разговора человека. А человек в разговоре может быть нелогичен и непредсказуем. Если для определения ИИ нужно решение задач, с чем я полностью согласен, то довесок в виде имитации беседы с человеком тут ни к чему.
Тогда надо ставить задачу так - это программа. Определите разумна ли она. Если известно что это программа, то всякие вопросы на вопросы и прочие виляния уходы уже не прокатят как при имитации беседы с человеком.
>> Беседа, это не шашки - идеального разговора не существует. И бот и человек могут уходить от неудобных вопросов, сами задавать вопросы, тупить, упрямиться. Да вотт на вотте как начинают вертеть жопой и переводить стрелки не отвечая на неудобные вопросы - чисто чатбот.
>
> Словарь в китайской комната - это один в один карта ходов идеальной партии в беседе. Это прямо в её описании говорится. Человек в китайской комнате не будет уходить от вопросов, тупить и упрямиться. Он просто не понимает того, что он делает. Точно также бот не может уходить от вопросов тупить и упрямиться по своей воле, если это отсутствует в словаре. Уходить от вопросов, тупить и упрямиться будет лишь словарь.
Ну и? Тупит и упрямится набор правил. А мог упрямится и тупить человек понимающий китайский язык.
Карта ходов также может предусматривать случайный выбор хода и запоминание сделанных ходов
Это логика. Бессмысленно проводить такой текст среди дураков.
> А кого она должна имитировать? Энштейна?
Она должна человеческую логику имитировать, или хотя бы иллюзию оной.
>>> Как на опредленном уровне обыграть чемпиона мира стало не проблемой, так и совершенствования чатботов на принципе "китайской комнаты" рано или поздно бот будет признаваться ботом не чаще чем человек будет признаваться ботом.
Каким образом? Китайская комната по умолчанию - тупой словарь. Его сложность растёт в геометрической прогрессии.
> Чем не человек?
Логики нет.
> И кто сказал, что человек их будет решать? Он может послать собеседника со своими задачками. Как и бот. В чем отличие от бота? Тест Тьюринга это НЕ ОПРЕДЕЛЕНИЕ РАЗУМА, а ИМИТАЦИЯ разговора человека. А человек в разговоре может быть нелогичен и непредсказуем. Если для определения ИИ нужно решение задач, с чем я полностью согласен, то довесок в виде имитации беседы с человеком тут ни к чему.
> Тогда надо ставить задачу так - это программа. Определите разумна ли она. Если известно что это программа, то всякие вопросы на вопросы и прочие виляния уходы уже не прокатят как при имитации беседы с человеком.
Хорошо. Можно задать программе вопрос, смысл которого вытекает из предыдущего разговора. Бот ответить не может.
> Ну и? Тупит и упрямится набор правил. А мог упрямится и тупить человек понимающий китайский язык.
Разве словарь ботов пишет один человек? Нелогичность, непоследовательность, отказ отвечать на вопросы, постоянная попытка привязать к разговору то, что не может быть привязано. Всё это бот, составленный из ответов тысяч людей. Именно подобная мешанина, а также неумение отвечать на вопросы, прекрасно отделяет бота от человека.
> Карта ходов также может предусматривать случайный выбор хода и запоминание сделанных ходов
Карта ходов не предусматривает случайного хода. В ней всё уже есть.
>> Сферические люди в вакууме они такие
>
> Это логика. Бессмысленно проводить такой текст среди дураков.
Не среди дураков. А с программой имитирующей человека который весьмавероятно, что не Энштейн.
>> А кого она должна имитировать? Энштейна?
>
> Она должна человеческую логику имитировать, или хотя бы иллюзию оной.
Ничего такого она не должна. Она беседу с человеком должна имитировать. И фз ты поймешь то ли это бот то ли человек ебанутый, но тем не менее разумный.
>>>> Как на опредленном уровне обыграть чемпиона мира стало не проблемой, так и совершенствования чатботов на принципе "китайской комнаты" рано или поздно бот будет признаваться ботом не чаще чем человек будет признаваться ботом.
>
> Каким образом? Китайская комната по умолчанию - тупой словарь. Его сложность растёт в геометрической прогрессии.
если хадача имитировать ИИ, то да. А если имитировать человека, то нет.
>> Чем не человек?
>
> Логики нет.
>
>> И кто сказал, что человек их будет решать? Он может послать собеседника со своими задачками. Как и бот. В чем отличие от бота? Тест Тьюринга это НЕ ОПРЕДЕЛЕНИЕ РАЗУМА, а ИМИТАЦИЯ разговора человека. А человек в разговоре может быть нелогичен и непредсказуем. Если для определения ИИ нужно решение задач, с чем я полностью согласен, то довесок в виде имитации беседы с человеком тут ни к чему.
>> Тогда надо ставить задачу так - это программа. Определите разумна ли она. Если известно что это программа, то всякие вопросы на вопросы и прочие виляния уходы уже не прокатят как при имитации беседы с человеком.
>
> Хорошо. Можно задать программе вопрос, смысл которого вытекает из предыдущего разговора. Бот ответить не может.
Это зависит от алгоритмов бота. Да и не в этом дело
>> Ну и? Тупит и упрямится набор правил. А мог упрямится и тупить человек понимающий китайский язык.
>
> Разве словарь ботов пишет один человек? Нелогичность, непоследовательность, отказ отвечать на вопросы, постоянная попытка привязать к разговору то, что не может быть привязано. Всё это бот, составленный из ответов тысяч людей. Именно подобная мешанина, а также неумение отвечать на вопросы, прекрасно отделяет бота от человека.
>
>> Карта ходов также может предусматривать случайный выбор хода и запоминание сделанных ходов
>
> Карта ходов не предусматривает случайного хода. В ней всё уже есть.
Кто мешает расширить правила и добавить монетку в китайскую комнату?
Всё это ерунда.
Тест Тьюринга не определяет разумность или логичность мышления. Программа не должна имитировать разум, она имитирует беседу с человеком. Человек существо нелогичное - он может решать задачки, может не решать, может юлить и врать.
Всё это может делать бот, а может человек. Можно бота принять за человека, а можно человека за бота. В таком случае ценность теста равна нулю.
Имитация беседы с человеком не критерий. Решение задач, самоуобучение критерий какой-никакой. Если это есть, то и разумная беседа возможна. Наверно. Никто такого не видел. А для имитации человека и бота хватит. Причем оценка прохождения теста субъективна.
В общем мне добавить нечего.
>>> Сформулируй достаточное, кто мешает?
>>
>> А можно я?
>>
>> Пусть, получив информацию о заготовке и словесное описание предмета (не очень делальное, общее, а еще лучше, пусть само опишет предмет)предложит (словесно) путь изготовления. Не точной копии, само собой, но похожего.
>>
>> Начать можно с прямоугольной заготовки и детали-кубика.
>
> Кстати, неплохой заход. В общем виде - интеллект - это способность к анализу ситуации и генерации вывода на основе вводных, т.е. способность к творчеству, причём "творчество" - это не "вот А не было, а теперь оно есть, т.е. это творчество" потому что так любую хрень можно объявить творчеством, а способность создавать нечто, приносящее практичную пользу исходя из условий вводной. Вот, например, обезьяна хочет полакомиться муравьями. Она идёт и подбирает веточку подходящей длинны и толщины, потом с веточкой в руке идёт и ищет муравейник, слюнит веточку, втыкает её в муравейник, вытягивает, слизывает налипших муравьёв. Это, безусловно, творчество, и это признак интеллекта. Интеллект очень примитивен, но это, безусловно, интеллект.
Причем тест Тьюринга она всяко не пройдет. А 50 человек приняли тупого бота за человека, хотя боту до обезъянки очень и очень далеко.
Так что тпрохождение теста Тьюринга не показатель ИИ.
> Не среди дураков. А с программой имитирующей человека который весьмавероятно, что не Энштейн.
Ещё раз повторю, у экспертов есть методы, которые позволяют сейчас определить человек перед ними или тупой чатбот. Брутфорсом взять не получится.
> Ничего такого она не должна. Она беседу с человеком должна имитировать. И фз ты поймешь то ли это бот то ли человек ебанутый, но тем не менее разумный.
Ещё ни один бот с которым я общался не продемонстрировал способности вести разговор по теме.
> если хадача имитировать ИИ, то да. А если имитировать человека, то нет.
Не согласен.
> Это зависит от алгоритмов бота. Да и не в этом дело
Именно от этого.
> Кто мешает расширить правила и добавить монетку в китайскую комнату?
Расширяйте, добавляйте. Всё это - бесполезно.
> Всё это ерунда.
> Тест Тьюринга не определяет разумность или логичность мышления. Программа не должна имитировать разум, она имитирует беседу с человеком. Человек существо нелогичное - он может решать задачки, может не решать, может юлить и врать.
> Всё это может делать бот, а может человек. Можно бота принять за человека, а можно человека за бота. В таком случае ценность теста равна нулю.
> Имитация беседы с человеком не критерий. Решение задач, самоуобучение критерий какой-никакой. Если это есть, то и разумная беседа возможна. Наверно. Никто такого не видел. А для имитации человека и бота хватит. Причем оценка прохождения теста субъективна.
> В общем мне добавить нечего.
Мне тоже добавить нечего. Все ваши слова - пустая бутафория.
Тест до сих пор никем не преодолён даже когда экзаменаторами были обычные люди, далёкие от предмета разговора.
Китайская комната - это бред сивой кобылы, не применимый к диалогу между разумными людьми.
Нет ни одного факта, доказывающего, что ваши рассуждения о бесполезности теста - верны.
Продолжать дальнейший диалог считаю бессмысленным.
>> Да вот же выше были сомнения, пройдет ли тест Тьюринга шимпанзе?
>> А интеллект у абизяна уж точно есть.
>
> Если судить с такой позиции, то он есть и у ворон и у дельфинов,
Совершенно точно есть. У ворон определенно похуже, чем у абизяна, но есть.
> но они разговаривать не умеют.
Речь словами - не обязательный атрибут интеллекта. Повреждения мозга человека, приводящие к немоте (даже врожденной) не лишают интеллекта.
Для выявления интеллекта с объектом исследования разговаривать не обязательно.
> Речь словами - не обязательный атрибут интеллекта. Повреждения мозга человека, приводящие к немоте (даже врожденной) не лишают интеллекта.
> Для выявления интеллекта с объектом исследования разговаривать не обязательно.
Ну так приведи своей тест,по которому можно определить интеллект робота.
малолетний »
Если бы ты только знал, какой же бред ты пишешь.