гравитация утонула
Прочитал только что забавную историю, которую попробую на скорую руку пересказать по-русски.
Джеймс Миэн (James Meehan) занимался разработками в области искусственного интеллекта. В 70-х годах он сконструировал систему TAILSPIN, которая занималась автоматическим созданием небольших рассказов на английском языке. TAILSPIN работала на основе небольшой (относительно) базы данных, содержащей сведения о "мире", в котором происходили её рассказы, о разных объектах в этом мире и взаимоотношениях между ними. Это так называемый "символический" подход к искусственному интеллекту (symbolic AI).
Однажды TAILSPIN выдала следующий примерно рассказ (в переводе на русский язык):
Как получилось, что TAILSPIN выдала рассказ с такой странной концовкой? Стали разбираться и разобрались.
В "мире" TAILSPIN объекты делились на "агентов" (agents), которые могут выполнять какие-то действия и с которыми случаются какие-то происшествия, и не-агентов (например, берег реки - это не агент). Модель "мира" TAILSPIN, однако, не умела задавать физические законы, она была для этого слишком примитивна. Для того, чтобы симулировать хотя бы один аспект физического мира -- действие гравитации (чтобы люди не могли летать или ходить по воде, скажем), Миэн использовал следующий трюк: он ввёл служебного "агента" по имени "Гравитация", который всё время выполняет одно и то же действие: тянет любого другого агента вниз.
Однако в тот момент, когда Генри Ант упал в воду, система продолжала рассуждать (используя заложенные в ней правила "развития событий" для любого агента) примерно следующим образом:
Поэтому Гравитация утонула.
Джеймс Миэн (James Meehan) занимался разработками в области искусственного интеллекта. В 70-х годах он сконструировал систему TAILSPIN, которая занималась автоматическим созданием небольших рассказов на английском языке. TAILSPIN работала на основе небольшой (относительно) базы данных, содержащей сведения о "мире", в котором происходили её рассказы, о разных объектах в этом мире и взаимоотношениях между ними. Это так называемый "символический" подход к искусственному интеллекту (symbolic AI).
Однажды TAILSPIN выдала следующий примерно рассказ (в переводе на русский язык):
Генри Ант захотел пить. Он подошёл к берегу реки, на котором сидел его друг Билл Берд. Генри поскользнулся и упал в реку. Гравитация утонула.
Как получилось, что TAILSPIN выдала рассказ с такой странной концовкой? Стали разбираться и разобрались.
В "мире" TAILSPIN объекты делились на "агентов" (agents), которые могут выполнять какие-то действия и с которыми случаются какие-то происшествия, и не-агентов (например, берег реки - это не агент). Модель "мира" TAILSPIN, однако, не умела задавать физические законы, она была для этого слишком примитивна. Для того, чтобы симулировать хотя бы один аспект физического мира -- действие гравитации (чтобы люди не могли летать или ходить по воде, скажем), Миэн использовал следующий трюк: он ввёл служебного "агента" по имени "Гравитация", который всё время выполняет одно и то же действие: тянет любого другого агента вниз.
Однако в тот момент, когда Генри Ант упал в воду, система продолжала рассуждать (используя заложенные в ней правила "развития событий" для любого агента) примерно следующим образом:
- "Гравитация" тянет вниз "Генри Анта".
- "Генри Ант" находится в реке, значит, "Гравитация" тоже находится в реке.
- У "Гравитации" нет рук и ног, поэтому она не может сама выкарабкаться из реки.
- У "Гравитации" нет хороших друзей (в отличие, скажем, от Генри Анта, у которого есть хороший друг Билли Берд), которые находились бы рядом с рекой, поэтому никто её не может вытащить из реки.
- "Гравитация" не умеет плавать (т.к. такой факт не задан в базе данных, как и в предыдущих случаях).
- Следовательно (используя сложное условие-определение того, когда агент тонет), "Гравитация" должна утонуть.
Поэтому Гравитация утонула.
no subject
no subject
с точки зрения мультиагентной системы моделирования такое в принципе невозможно. неправильно описана база знаний. что странно, т.к. мультиагентный подход родился еще в 50-х годах.
Re:
http://web.media.mit.edu/~wsack/micro-talespin.txt
Там, правда, агента-гравитации нет ;) Но это не оригинальный TAILSPIN, да и там, я думаю, эта часть была переделана после такого инцидента, если он действительно имел место, а не фольклор.
no subject
но, тем не менее, судя по комментариям, не совсем понятен подход к AI, при котором система не является мультиагентной. иначе "описание мира" - понятие весьма расплывчатое (точнее - субъективное). а это неправильно :)
что называется, "так ракета не полетит" :)
no subject
no subject
А вообще зaмечaтельно вот тaк зaглянуть в рaзмышления и умозaключения. Вот тaк и дети иногдa выдaдут что-то совершенно неожидaнное -- остaется только удивляться. Жaль, что у них чaще всего не добьешься, кaкaя цепочкa их привелa к неожидaнному выскaзывaнию (и кaкими они видят обьекты мирa вроде грaвитaции, физических зaконов и т.д.)
клёва!
т.е. оно решало там какую-то тривиальную задачку, типа про волка, козла, капусту и лодочника, но цель была не в том штоп решила -- а вот в том, чтоб решила качественным понимашш искусственноинтеллектуальным образом
no subject
Я – не специалист, но мне так кажется. То есть, я вижу здесь то, что люблю – абсурд, бессмыслица. Но бессмыслица, которая только кажется таковой.
В общем, чего долго писать? Просто здОрово и интересно!
ЗЫ (оффтопик). А ведь сколько ни старались, адекватного логического компьютерного переводчика так пока и не создали. Я, во всяком случае, не видел. Причем, я имею в виду, разумеется, переводчиков не для художественной литературы, а для вполне себе специальных текстов. Даже у хороших тексты на выходе все равно требуют дополнительной обработки, а тут уж проще все сначала самому перевести. Разве что для деловых писем …
no subject
Re:
no subject
no subject
no subject
no subject
Только всё же не tailspin, а tale-spin.