Переношу в свой дневник содержание коммента к записи у
d_off, в к-м я более-менее точно высказал своё отношение к AI как дисциплине, по крайней мере до недавнего времени.
Я вижу историю AI начиная с середины 50-х годов как один большой скандал. Ведущие специалисты в AI не раз, не два и не три заявляли нам за последние пол-века, что ещё через 30, 20 или 15 лет у нас будет машина, такая же умная, как человек. Сейчас понятно, что все эти заявления были в лучшем случае самообманом, в худшем - наглым враньём с целью получить ещё больше финансирования. Самые убедительные примеры интеллектуального соревнования машины с человеком достигнуты вообще в обход AI как дисциплины (напр. шахматные компьютеры, построенные все как один на грубом переборе с некоторыми вариациями). Ни одной действительно серьёзной цели, поставленной AI перед собой, она не смогла добиться.
В этой ситуации полного интеллектуального провала, на который невозможно больше закрывать глаза, стало популярно сейчас утверждать, что дескать AI не должен имитировать человека, не должен ему подражать, что неверно оценивать успешность AI по человеческим меркам типа теста Тюринга.
Но мне это кажется всего лишь попыткой, со стороны тех специалистов AI, что так говорят, сделать хорошую мину при плохой игре. Если оценивать AI не по тому, насколько хорошо он делает что-то интеллектуальное, что умеет делать человек, то КАК его оценивать? Если просто по соответствию поставленной задаче, тогда алгоритм сортировки bubble-sort - очень удачный AI.
Всё в конце концов сводится к тому, что мы знаем только один вид intelligence - наш собственный; и единственный способ назвать что-то другое intelligent - если это что-то может соревноваться с нами в обще-интеллектуальных занятиях или результатах, или в чём-то даже превосходит нас. Тест Тюринга - самый простой и верный способ это проверить. Отказываясь от этой меры, мы остаёмся ни с чем - никакого эффективного метода ранжировки степени интеллектуальности разного рода AI у нас больше нет. Такое положение вещей, возможно, и выгодно тем людям внутри AI, которые отчаялись (и справедливо!) доказать окружающему миру, что они добились чего-то значимого. Но научное сообщество в целом с этим подлогом соглашаться не должно.
Я вижу историю AI начиная с середины 50-х годов как один большой скандал. Ведущие специалисты в AI не раз, не два и не три заявляли нам за последние пол-века, что ещё через 30, 20 или 15 лет у нас будет машина, такая же умная, как человек. Сейчас понятно, что все эти заявления были в лучшем случае самообманом, в худшем - наглым враньём с целью получить ещё больше финансирования. Самые убедительные примеры интеллектуального соревнования машины с человеком достигнуты вообще в обход AI как дисциплины (напр. шахматные компьютеры, построенные все как один на грубом переборе с некоторыми вариациями). Ни одной действительно серьёзной цели, поставленной AI перед собой, она не смогла добиться.
В этой ситуации полного интеллектуального провала, на который невозможно больше закрывать глаза, стало популярно сейчас утверждать, что дескать AI не должен имитировать человека, не должен ему подражать, что неверно оценивать успешность AI по человеческим меркам типа теста Тюринга.
Но мне это кажется всего лишь попыткой, со стороны тех специалистов AI, что так говорят, сделать хорошую мину при плохой игре. Если оценивать AI не по тому, насколько хорошо он делает что-то интеллектуальное, что умеет делать человек, то КАК его оценивать? Если просто по соответствию поставленной задаче, тогда алгоритм сортировки bubble-sort - очень удачный AI.
Всё в конце концов сводится к тому, что мы знаем только один вид intelligence - наш собственный; и единственный способ назвать что-то другое intelligent - если это что-то может соревноваться с нами в обще-интеллектуальных занятиях или результатах, или в чём-то даже превосходит нас. Тест Тюринга - самый простой и верный способ это проверить. Отказываясь от этой меры, мы остаёмся ни с чем - никакого эффективного метода ранжировки степени интеллектуальности разного рода AI у нас больше нет. Такое положение вещей, возможно, и выгодно тем людям внутри AI, которые отчаялись (и справедливо!) доказать окружающему миру, что они добились чего-то значимого. Но научное сообщество в целом с этим подлогом соглашаться не должно.
AI как самосознание Логоса
Date: 2002-05-30 09:13 pm (UTC)Кажется, я могу объяснить, почему компьютер, проходяший тест Тьюринга, до сих пор не построен.
Начнём вот с чего. Не знаю уж, что имел в виду сам Тьюринг (не читал оригинальной работы), но распространённое понимание теста Тьюринга попросту некорректно. По результатам этого теста машина должна оказаться неотличимой от человека. Да, но от какого человека? Ведь люди очень сильно отличаются друг от друга; от кого же из них компьютер должен быть неотличим? Бывают люди с математическим образованием и без такового -- они друг от друга легко отличимы (преподы на экзаменах великолепно отличают знающих матан от незнающих); бывают умеющие играть в шахматы и не умеющие etc. Таким образом, условия надо уточнить.
Можно проводить уточнение в духе определения псевдослучайного генератора. Введём на людях распределение (равномерное, пожалуй) и будем сажать их против компьютера; хотелось бы, чтобы доля случаев, когда арбитр делает правильное различение, была близка к 1/2. Таким образом мы определим неотличимость машины от случайного человека. Однако много ли нам в том пользы и удовольствия? В такой машине толку будет не больше, чем в этом самом случайном человеке. Да к тому же эта задача, кажется, решена -- говорят, разные Элизы в чатах вполне сходят за людей.
Будем проводить уточнение в другом направлении. Думаю, многие согласятся, что в вышеприведённых примерах надо рассматривать человека с математическим образованием и умеющего играть в шахматы. Вообще, надо брать не "среднее" по человечеству, а "максимум", иными словами брать надо идеального человека. И философии такой человек давно известен! Это -- чистое мышление. В кантианской традиции этот "человек" называется трансцендентальной апперцепцией; у Гегеля примерно то же проходит под названием мирового Логоса. Конечно, в подобном определении мало практической пользы, зато оно проясняет проблему.
В компьютере человек воплощает идеал чистого мышления; разумеется, для воплощения мышления необходимо и достаточно чётко понимать, как оно происходит. За 50 лет истории компьютерной техники конечного результата достигнуто не было; однако, уже то, что сделано, да просто само создание компьютера, есть грандиозный прогресс, даже на фоне всей трёхтысячелетней истории разработки этой темы европейской мыслью.
При подобном подходе легко объяснить роль и значение Machine Learning. Задача его -- научить компьютер производить, по кантовской терминологии, синтетические суждения, т.е., иными словами, понять, как их производит мышление. Производство аналитических суждений, т.е. дедукция, компьютером осилена; осталось научить его индукции.
И вот когда это получится, будет достигнута цель Гегеля, Логос осознает сам себя. А дальше -- солнце ангелы потушат, как утром лишнюю свечу...