Переношу в свой дневник содержание коммента к записи у
d_off, в к-м я более-менее точно высказал своё отношение к AI как дисциплине, по крайней мере до недавнего времени.
Я вижу историю AI начиная с середины 50-х годов как один большой скандал. Ведущие специалисты в AI не раз, не два и не три заявляли нам за последние пол-века, что ещё через 30, 20 или 15 лет у нас будет машина, такая же умная, как человек. Сейчас понятно, что все эти заявления были в лучшем случае самообманом, в худшем - наглым враньём с целью получить ещё больше финансирования. Самые убедительные примеры интеллектуального соревнования машины с человеком достигнуты вообще в обход AI как дисциплины (напр. шахматные компьютеры, построенные все как один на грубом переборе с некоторыми вариациями). Ни одной действительно серьёзной цели, поставленной AI перед собой, она не смогла добиться.
В этой ситуации полного интеллектуального провала, на который невозможно больше закрывать глаза, стало популярно сейчас утверждать, что дескать AI не должен имитировать человека, не должен ему подражать, что неверно оценивать успешность AI по человеческим меркам типа теста Тюринга.
Но мне это кажется всего лишь попыткой, со стороны тех специалистов AI, что так говорят, сделать хорошую мину при плохой игре. Если оценивать AI не по тому, насколько хорошо он делает что-то интеллектуальное, что умеет делать человек, то КАК его оценивать? Если просто по соответствию поставленной задаче, тогда алгоритм сортировки bubble-sort - очень удачный AI.
Всё в конце концов сводится к тому, что мы знаем только один вид intelligence - наш собственный; и единственный способ назвать что-то другое intelligent - если это что-то может соревноваться с нами в обще-интеллектуальных занятиях или результатах, или в чём-то даже превосходит нас. Тест Тюринга - самый простой и верный способ это проверить. Отказываясь от этой меры, мы остаёмся ни с чем - никакого эффективного метода ранжировки степени интеллектуальности разного рода AI у нас больше нет. Такое положение вещей, возможно, и выгодно тем людям внутри AI, которые отчаялись (и справедливо!) доказать окружающему миру, что они добились чего-то значимого. Но научное сообщество в целом с этим подлогом соглашаться не должно.
Я вижу историю AI начиная с середины 50-х годов как один большой скандал. Ведущие специалисты в AI не раз, не два и не три заявляли нам за последние пол-века, что ещё через 30, 20 или 15 лет у нас будет машина, такая же умная, как человек. Сейчас понятно, что все эти заявления были в лучшем случае самообманом, в худшем - наглым враньём с целью получить ещё больше финансирования. Самые убедительные примеры интеллектуального соревнования машины с человеком достигнуты вообще в обход AI как дисциплины (напр. шахматные компьютеры, построенные все как один на грубом переборе с некоторыми вариациями). Ни одной действительно серьёзной цели, поставленной AI перед собой, она не смогла добиться.
В этой ситуации полного интеллектуального провала, на который невозможно больше закрывать глаза, стало популярно сейчас утверждать, что дескать AI не должен имитировать человека, не должен ему подражать, что неверно оценивать успешность AI по человеческим меркам типа теста Тюринга.
Но мне это кажется всего лишь попыткой, со стороны тех специалистов AI, что так говорят, сделать хорошую мину при плохой игре. Если оценивать AI не по тому, насколько хорошо он делает что-то интеллектуальное, что умеет делать человек, то КАК его оценивать? Если просто по соответствию поставленной задаче, тогда алгоритм сортировки bubble-sort - очень удачный AI.
Всё в конце концов сводится к тому, что мы знаем только один вид intelligence - наш собственный; и единственный способ назвать что-то другое intelligent - если это что-то может соревноваться с нами в обще-интеллектуальных занятиях или результатах, или в чём-то даже превосходит нас. Тест Тюринга - самый простой и верный способ это проверить. Отказываясь от этой меры, мы остаёмся ни с чем - никакого эффективного метода ранжировки степени интеллектуальности разного рода AI у нас больше нет. Такое положение вещей, возможно, и выгодно тем людям внутри AI, которые отчаялись (и справедливо!) доказать окружающему миру, что они добились чего-то значимого. Но научное сообщество в целом с этим подлогом соглашаться не должно.
Re: êñòàòè, î ïòè÷êàõ...
Date: 2002-04-10 02:07 pm (UTC)ñàì òåñò òüþðèíãà, ìÿãêî ãîâîðÿ, ñîìíèòåëåí ñ (ìîåé) òî÷êè çðåíèÿ òåõíàðÿ, òàê êàê íåïîíÿòíî êàê "îòêàëèáðîâàí" (â ìåòðîëîãè÷åñêîì ñìûñëå) "èçìåðèòåëüíûé ïðèáîð", ò.å. èñïûòóþùèé.
ß íå âèæó çäåñü îñîáîé ïðîáëåìû.
äëÿ íà÷àëà ìîæíî ââåñòè òàêîé êðèòåðèé (ïî ðàäàðíîìó ïðèíöèïó, êàê íàèáîëåå ïîäõîäÿùåìó) - åñëè èçìåðèòåëü íå äàñò íè ðàçó "ëîæíîé òðåâîãè", ò.å. åìó ãîâîðÿò ÷òî îäèí òåðìèíàë ñ ÷åëîâåêîì, à äðóãîé ñ ìàøèíîé, õîòÿ íà ñàìîì äåëå îáà òåðìèíàëà ñ ëþäüìè, è îí îïðåäåëÿåò îäíîãî èç ëþäåé êàê ìàøèíó ;)
Íó, çà÷åì òàê îáìàíûâàòü ëþäåé ;)
Ìíå êàæåòñÿ, Òþðèíã ñïåöèàëüíî îïðåäåëèë òåñò êàê îòíîñèòåëüíî-âåðîÿòíîñòíûé, ÷òîáû èçáàâèòüñÿ îò ïðîáëåì òî÷íîé êàëèáðîâêè.
ïî÷åìó ÿ îá ýòîì çàãîâîðèë - âîò r_l ïèøåò î ïðîáëåìàõ îáðàçîâàíèÿ, ïðè÷åì çàìå÷àåò ÷òî åñòü ñåðüåçíûå ïðîáëåìû ñ ðàñïîçíàâàíèåì cheating, õîòÿ ñèòóàöèÿ ñ ñîäðàííûìè ñ èíòðåíåòà ðåôåðàòàìè î÷åíü áëèçêà (åñëè íå ýêâèâàëåíòíà) òåñòó Òüþðèíãà, òîëüêî çäåñü ó÷èòåëü-ðàñïîçíàâàòåëü âûñòóïàåò ïðîòèâ èãðîêà À (÷åñòíî ïèùóùåãî ðåôåðàò) è èãðîêà Á (ñîäðàâøåãî ðåôåðàò, ò.å. èçîáðàçèâøåãî â êàêîé-òî ñòåïåíè ïîâåäåíèå Ýëèçû).
Âñ¸ æå ýòî ñîâåðøåííî ðàçíûå âåùè. "Ñîäðàòü" íåèçìåðèìî ëåã÷å, ÷åì ñîçäàòü ñàìîìó.
ÿ ïîíÿòíî èçüÿñíÿþñü äî ýòîé ñòðîêè?
Ïîíÿòíî, íî ÿ íå î÷åíü ñîãëàñåí ñ Âàøèìè ïðåòåíçèÿìè ê òåñòó. Ýòî âñåãî ëèøü òåñò; ñàì ïî ñåáå îí âïîëíå îáúåêòèâíî îïðåäåë¸í è íåíàó÷íûì åãî íàçâàòü íåëüçÿ. Åãî âàæíîñòü ïðîèñòåêàåò èç íàøåãî îáùåãî ñîãëàñèÿ ïî ïîâîäó òîãî, ÷òî ïðîøåäøèé åãî êîìïüþòåð ìîæíî íàçâàòü ðàçóìíûì. Òóò ÿ òîæå íå âèæó îñîáûõ ïðîáëåì.
N дней ÑпÑÑÑÑ...
http://packages.debian.org/stable/misc/megahal.html
Conversation simulators are computer programs which give the appearance of conversing with a user in natural language. Such programs are effective because they exploit the fact that human beings tend to read much more meaning into what is said than is actually there; we are fooled into reading structure into chaos, and we interpret non-sequitur as valid conversation.
MegaHAL differs from conversation simulators such as Eliza in that it uses a Markov Model to learn how to hold a conversation. It is possible to teach MegaHAL to talk about new topics, and in different languages.
где Ð±Ñ ÑеÑÑеÑов взÑÑÑ Ð½Ð° ÑеÑÑ Ð¢ÑÑÑинга Ð´Ð»Ñ ÑÑой пÑиблÑдÑ? пÑедваÑиÑелÑно накаÑав ее даннÑми...