Feb. 1st, 2025

цирк

Feb. 1st, 2025 01:43 am
avva: (Default)
circocirco.jpg

В городе висят афиши цирка. Цирк! цирк! цирк! Написано, что цирк называется "Circo circo", и что это знаменитое международное шоу, к нам прямо из Америки.

Но никаких следов международного цирка с таким названием интернет не находит, все результаты поиска - статьи про него на иврите в израильских СМИ, и все как одна повторяют те же слова про знаменитое международное шоу с акробатами мирового уровня и мировой же знаменитости.

Что это за люди? Реальный цирковой коллектив на гастролях или местные продюсеры собрали команду специально для этого тура? Кто постановщик или директор коллектива, откуда акробаты на самом деле? Ничего не понятно. Скромный израильский пиар. Цирк!
avva: (Default)
Несколько прочитанных в последнее время книг возродили во мне желание лучше понять и разобраться, как переплетались в языковом сознании прошлых веков русский и церковнославянский языки, как влияли друг на друга, и особенно - что происходило в этом смысле в 18-м и начале 19-го века.

Пока что я нашел и начал читать книгу Б. Успенского
"Краткий очерк истории русского литературного языка (XI - XIX вв.)"
https://imwerden.de/pdf/uspensky_kratky_ocherk_russkogo_literaturnogo_yazyka_1994__ocr.pdf

и она выглядит интересной и хорошо написанной. Но если есть экспертные мнения о том, какие книги/материалы на эту тему лучше, а эта книга почему-то хуже, поделитесь, пожалуйста.
avva: (Default)
Одна из самых "горячих" тем в ИИ сейчас - это модели с размышлением, "reasoning models", известные также как модели с CoT (Chain of Thought, поток мыслей). Это o1 от OpenAI, DeepSeek-R1, нашумевший в последнюю неделю, и вот буквально сегодня o3-mini опять от OpenAI.

Эти модели умеют перед окончательным ответом выстраивать "поток мыслей", выглядящий очень естественным, человеческим во многих случаях. Этот поток можно увидеть прямо в реальном времени.

Вместе с тем, после проверки этих моделей на разных вопросах, у меня зародилось подозрение, что иногда - пока не берусь сказать, как часто - их поток мыслей это подгонка под формат "поток мыслей" уже известного результата. То есть, я выдвигаю гипотезу, что эти модели работают следующим образом. Вы задаете модели какой-то вопрос, какую-то задачу. Она находит правильный ответ, причем как именно, неизвестно ровно в том же смысле, как и для не-"размышляющей" модели, типа ChatGPT-4o, или Claude, или Llama, никогда не было известно. Но, получив этот ответ, модель не дает его сразу, а симулирует логично выглядящий поток "размышлений" (научившись это делать в результате тренировки именно этой способности), который рано или поздно к нему приводит. А мы, пользователи, читаем этот поток и наивно радуемся тому, что наконец-то понимаем, как модель пришла к ответу.

Не знаю, писал ли кто-то еще о такой возможности, мне не попадалось (но я очень мало читаю в этой области, в основном что попадается в Твиттере). Если вам попадалось, киньте ссылку.

Недавно мне попался яркий пример этого. В комментариях мне написали, что ChatGPT-о1 решает задачу следующего вида:

У меня есть предложение с пропущенным словом. Подбери слово так, чтобы предложение стало верным и напиши его правильно. Я обозначу пропущенное слово тремя подчерками.
Вот предложение:
"В этом предложении ровно ___ букв."


Это "рекурсивная" задача - записывая пропущенное число буквами, мы меняем общее число букв. Подходят ответы "тридцать семь" или "тридцать девять".
Мне понравилась идея, и я немедленно попробовал сам, изменив при этом предложение на

"В этом предложении аж ___ букв."

чтобы не сработало известное решение, и чтобы уменьшить шансы того, что задача именно в этом виде встречалась в корпусе тренировки ("аж" просторечное слово). Модели решили мой вариант задачи (правильный ответ "тридцать" - я специально не проверял перед тем, как спросить, и не знал даже, есть ли решение). Но то, как они описывали свой поток мыслей, оказалось весьма интересным, по крайней мере в случае DeepSeek:

=================
Хорошо, пользователь дал предложение с пропущенным словом: "В этом предложении аж ___ букв." Нужно подобрать подходящее слово, чтобы предложение стало верным. Сначала я должен понять, что требуется.
Пользователь хочет, чтобы я вставил слово вместо трёх подчёркиваний так, чтобы предложение было правильным. Возможно, это задание на самоссылающиеся предложения или на подсчёт количества букв. Нужно проверить, сколько букв будет в предложении, если вставить туда определённое слово.
Предложение сейчас выглядит так: "В этом предложении аж ___ букв." Если я вставлю какое-то числительное, например, "тридцать", то нужно посчитать общее количество букв в предложении. Но тогда само предложение должно содержать правильное число букв. Это как известный пример самоссылающихся предложений.
Давай попробуем. Пусть пропущенное слово — "тридцать". Тогда предложение будет: "В этом предложении аж тридцать букв." Теперь посчитаем количество букв:
В - 1
э - 1
т - 1
о - 1
...
Считаю буквы: получается 28 букв. Но если вставить "тридцать", то утверждение будет неверным, так как букв 28, а не 30. Значит, "тридцать" не подходит.
================================


Модель сразу пробует правильный ответ (тридцать), но при этом неверно считает буквы и получает 28. Продолжаем (я сокращаю и убираю некоторые повторения для удобства):

======================
Попробую другое число. Например, "двадцать восемь". Тогда предложение будет: "В этом предложении аж двадцать восемь букв." Посчитаем буквы:
В (1), э(1), т(1), о(1), м(1), п(1), р(1), е(1), д(1), л(1), о(1), ж(1), е(1), н(1), и(1), и(1), а(1), ж(1), д(1), в(1), а(1), д(1), ц(1), а(1), т(1), ь(1), в(1), о(1), с(1), е(1), м(1), ь(1), б(1), у(1), к(1), в(1). Слишком много, получится больше 30 букв. Возможно, не подходит.

Может, попробовать "двадцать семь"? Тогда предложение: "В этом предложении аж двадцать семь букв." Считаю буквы: [...] Опять много. Похоже, такой подход не работает.

Возможно, нужен другой подход. Может, использовать слово, которое обозначает количество букв в самом предложении с этим словом. То есть, самоссылающееся предложение. Например, если вставить "двадцать пять", то предложение должно содержать 25 букв. Проверю: [...] Не подходит.

[еще несколько такого рода подходов]

Может, пользователь имеет в виду что-то другое. Например, слово "пять" или "шесть". Проверим: [...] Не подходит.
Возможно, ответ — "тридцать". Хотя ранее подсчитали, что с "тридцать" получается 28 букв, но может, я ошибся в подсчёте. Давай ещё раз:
Предложение: "В этом предложении аж тридцать букв."
Считаем каждую букву:

[на этот раз посчитано правильно]

Да, точно 30 букв. Значит, если вставить слово "тридцать", то предложение будет верным, так как в нём 30 букв. Раньше я ошибся в подсчёте, теперь вижу, что правильно. Значит, правильный ответ — "тридцать".
=====================================


По-моему ясно, что правильный ответ "тридцать" был у модели с самого начала, и она пыталась подогнать под него "размышления". Сначала не получилась, неверно подсчитала буйвы, потом тыкалась туда-сюда, потом опять вернулась к этой тридцатке, и наконец смогла правильно проверить уже известный ей (непонятно откуда, "из модели") ответ.
По-моему, такое происходит часто и в менее очевидных случаях, когда модели удается подобрать логично выглядящее "оправдание" в виде того, как она якобы пришла к ответу. А мы с радостью принимаем это оправдание за "нахождение" ответа путем логического мышления.
avva: (Default)
Я стараюсь в последнее время помнить о том, как полезно пощупать конкретные данные, а не только думать о задаче абстрактно (как мне свойственно по характеру). Вот тривиальный, но характерный пример. В твиттере попалась забавная задачка:

"Доказать, что на окружности радиусом 1 вокруг начала координат есть бесконечное количество "десятичных" точек, то есть таких, как (0.6, 0.8 ) или (0.28, 0.96) - координаты в десятичной оканчиваются, а не продолжаются бесконечно"

(дальше будет решение, если хотите решать самостоятельно, не читайте)

Думаю так. Можно перевести это из дробей в целые числа, 6^2+8^2 = 10^2, то же самое с (28,96), но сумма уже 100 в квадрате, итд. Должны быть все растущие и растущие такие пары чисел, причем оканчивающиеся не на нули. Откуда их взять?

И тут я остановился и сказал себе: стоп. Посмотри на конкретные данные. Немедленно зашел в питон и прямо в командной строке написал код, который печатает все такие пары для данной степени 10. Самое тривиальное и тупое:
>>> def pr(n):
... for i in range(n):
... for j in range(n):
... if i != j and i**2+j**2==n**2:
... print(f"{i},{j}")

Запускаю pr от 10, 100, 1000, 10000. Что я вижу: что кроме тривиальных примеров - если 6,8 подходит для 10, то 60,80 для 100 - есть только один нетривиальный пример для каждого числа цифр:

6,8
28,96
352,936
5376,8432

Раз есть только один, то может они как-то связаны и из меньших можно сделать большие. Начинаю играть с ними, делить большие на меньшие. Замечаю, что 5376/28 делится нацело, выходит 192. Стоп, 192 это как раз 96*2, дважды второе число в паре. Что с другими парами? 6*8*2 = 96, ага, закономерность. Если (x,y) пара, то 2xy - одно из чисел в другой паре. Почему? x^2+y^2 степень десятки, смотрим на (2xy)^2... сразу становится понятно, что оно связано с квадратом (x^2+y^2) и формула пишет себя сама:

(y^2-x^2)^2 + (2xy)^2 = (x^2+y^2)^2

так мы получаем новую пару из старой. Написав это, я сразу вспоминаю, что знал это из темы пифагоровых троек, целых чисел, которые могут быть сторонами прямоугольного треугольника, и как их находить. Но не подумал об этом с самого начала, не соединил. Теперь очевидно. Ясно также, что если начать с (6,8), все следующие тройки будут нетривиальными, потому что 2xy никогда не даст 0 в конце числа. Вот и все, это доказательство нескончаемого потока "десятичных" точек на единичной окружности.

Все это заняло 5 минут, значительно меньше, чем написать об этом.
Остается непонятым: почему из трех цифр есть тоже только одна нетривиальная пара, (352,936)? Она как-то связана с (6,8) или сама по себе? После 4 разрядов тоже сохраняется правило "всего одна нетривиальная пара на каждое число цифр" или появляются какие-то другие варианты?

Вполне возможно, что эти три вопроса очень просты и ответы лежат на поверхности, а может и нет. Я специально удержал себя от того, чтобы о них думать, есть другие дела сейчас. Хотите попробовать?

June 2025

S M T W T F S
123 4 5 6 7
8 910 11 12 13 14
15161718192021
22232425262728
2930     

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jun. 16th, 2025 01:21 am
Powered by Dreamwidth Studios