Переношу в свой дневник содержание коммента к записи у
d_off, в к-м я более-менее точно высказал своё отношение к AI как дисциплине, по крайней мере до недавнего времени.
Я вижу историю AI начиная с середины 50-х годов как один большой скандал. Ведущие специалисты в AI не раз, не два и не три заявляли нам за последние пол-века, что ещё через 30, 20 или 15 лет у нас будет машина, такая же умная, как человек. Сейчас понятно, что все эти заявления были в лучшем случае самообманом, в худшем - наглым враньём с целью получить ещё больше финансирования. Самые убедительные примеры интеллектуального соревнования машины с человеком достигнуты вообще в обход AI как дисциплины (напр. шахматные компьютеры, построенные все как один на грубом переборе с некоторыми вариациями). Ни одной действительно серьёзной цели, поставленной AI перед собой, она не смогла добиться.
В этой ситуации полного интеллектуального провала, на который невозможно больше закрывать глаза, стало популярно сейчас утверждать, что дескать AI не должен имитировать человека, не должен ему подражать, что неверно оценивать успешность AI по человеческим меркам типа теста Тюринга.
Но мне это кажется всего лишь попыткой, со стороны тех специалистов AI, что так говорят, сделать хорошую мину при плохой игре. Если оценивать AI не по тому, насколько хорошо он делает что-то интеллектуальное, что умеет делать человек, то КАК его оценивать? Если просто по соответствию поставленной задаче, тогда алгоритм сортировки bubble-sort - очень удачный AI.
Всё в конце концов сводится к тому, что мы знаем только один вид intelligence - наш собственный; и единственный способ назвать что-то другое intelligent - если это что-то может соревноваться с нами в обще-интеллектуальных занятиях или результатах, или в чём-то даже превосходит нас. Тест Тюринга - самый простой и верный способ это проверить. Отказываясь от этой меры, мы остаёмся ни с чем - никакого эффективного метода ранжировки степени интеллектуальности разного рода AI у нас больше нет. Такое положение вещей, возможно, и выгодно тем людям внутри AI, которые отчаялись (и справедливо!) доказать окружающему миру, что они добились чего-то значимого. Но научное сообщество в целом с этим подлогом соглашаться не должно.
Я вижу историю AI начиная с середины 50-х годов как один большой скандал. Ведущие специалисты в AI не раз, не два и не три заявляли нам за последние пол-века, что ещё через 30, 20 или 15 лет у нас будет машина, такая же умная, как человек. Сейчас понятно, что все эти заявления были в лучшем случае самообманом, в худшем - наглым враньём с целью получить ещё больше финансирования. Самые убедительные примеры интеллектуального соревнования машины с человеком достигнуты вообще в обход AI как дисциплины (напр. шахматные компьютеры, построенные все как один на грубом переборе с некоторыми вариациями). Ни одной действительно серьёзной цели, поставленной AI перед собой, она не смогла добиться.
В этой ситуации полного интеллектуального провала, на который невозможно больше закрывать глаза, стало популярно сейчас утверждать, что дескать AI не должен имитировать человека, не должен ему подражать, что неверно оценивать успешность AI по человеческим меркам типа теста Тюринга.
Но мне это кажется всего лишь попыткой, со стороны тех специалистов AI, что так говорят, сделать хорошую мину при плохой игре. Если оценивать AI не по тому, насколько хорошо он делает что-то интеллектуальное, что умеет делать человек, то КАК его оценивать? Если просто по соответствию поставленной задаче, тогда алгоритм сортировки bubble-sort - очень удачный AI.
Всё в конце концов сводится к тому, что мы знаем только один вид intelligence - наш собственный; и единственный способ назвать что-то другое intelligent - если это что-то может соревноваться с нами в обще-интеллектуальных занятиях или результатах, или в чём-то даже превосходит нас. Тест Тюринга - самый простой и верный способ это проверить. Отказываясь от этой меры, мы остаёмся ни с чем - никакого эффективного метода ранжировки степени интеллектуальности разного рода AI у нас больше нет. Такое положение вещей, возможно, и выгодно тем людям внутри AI, которые отчаялись (и справедливо!) доказать окружающему миру, что они добились чего-то значимого. Но научное сообщество в целом с этим подлогом соглашаться не должно.
no subject
Date: 2002-04-10 09:55 am (UTC)would you explain to me the meaning ot the proverb "better late than never"?
I am not so sure if I would like to explain to you the meaning ot the proverb better late than never.
Õà-õà. Íà ïåðâîì âîïðîñå ïðîëåòåëà, äî ñâèäàíèÿ.
no subject
Date: 2002-04-10 10:06 am (UTC)"I would look into the web for that knowledge.
I would do a search for it. The first letter of the roman alphabet."
Òîò åùå intelligence.
no subject
Date: 2002-04-10 10:23 am (UTC)íî íà êàêèå-òî âîïðîñû îíà îòâå÷àåò
åñëè óâåëè÷èòü åå áàçó, âîçìîæíî, îíà îòâåòèò è íà ýòîò âîïðîñ
ïðè÷åì, áîëåå èíòåëëåêòóàëüíîé, ÷åì ñåé÷àñ, îíà íå ñòàíåò
ýòî ÿ ê òîìó, ÷òî íåîáõîäèìîñòü ÏÎÍÈÌÀÒÜ ÷òî-òî, ÷òîáû ïðîéòè êàêîé-òî òåñò ñîìíèòåëüíà
äà è ÷òî, â êîíöå êîíöîâ, òàêîå ÏÎÍÈÌÀÒÜ?...
Re:
Date: 2002-04-10 10:27 am (UTC)íî íà êàêèå-òî âîïðîñû îíà îòâå÷àåò
åñëè óâåëè÷èòü åå áàçó, âîçìîæíî, îíà îòâåòèò è íà ýòîò âîïðîñ
Íåò, íåâîçìîæíî. Âñåãäà áóäåò òðèâèàëüíûì äåëîì çàäàòü åé ïðîñòîé âîïðîñ, ê-é å¸ ðàçîáëà÷èò.
no subject
Date: 2002-04-10 10:42 am (UTC)Ñóùåñòâóþò ãîðîäà?
Îí îòâåòèë: - Íèêîãäà!.. -
È åãî ðàçîáëà÷èëè.