Feb. 22nd, 2025

avva: (Default)
Андрей Карпати недавно опубликовал новое видео про то, как работают языковые модели, для широкой публики. Скорее всего, оно очень хорошее и стоит вашего внимания, если вы хотите разобраться, как устроен ChatGPT и другие такие модели - говорю "скорее всего", потому что целиком его не смотрел, там слишком мало для меня нового. Но Карпати всегда очень хорошо объясняет, по моему опыту.

Я хочу привлечь внимание к одному месту в его видео (1:47 в видео), где он сравнивает разные методики тренировки моделей на примерах "вопрос - ответ". Он дает такой пример: скажем, мы хотим, чтобы модель идеально отвечала на вопросы типа

Эмили купила 3 яблока и 2 апельсина. Каждый апельсин стоит $2, а всего она заплатила $13. Сколько стоит каждое яблоко?

Тогда мы можем сгенерировать много примеров вопросов такого вида и правильных ответов, и натренировать модель на них, вдонабок к тому, что она и так уже имеет; это назыается подкрутка, файн-тьюнинг.

(Это просто игрушечный пример: конкретно на этот вопрос любая ведущая модель сегодня и так ответит, но в реальности нам могут понадобиться более сложные вопросы и задачи).

Но вот вопрос, как сформулировать правильный ответ, к которому модель должна стремиться?

Два варианта:

Ответ: $3. Два апельсина по $2 каждый стоят вместе $4, значит, яблоки стоят $13-$4=$9, и каждое яблоко стоит $9/3 = $3.

Два апельсина по $2 каждый стоят вместе $4, значит, яблоки стоят $13-$4=$9, и всего есть три яблока, поэтому каждое яблоко стоит $9/3 = $3. Ответ: $3.

Карпати совершенно справедливо объясняет, что второй вариант ответа НАМНОГО ЛУЧШЕ, чем первый, в том смысле, что если мы будем использовать второй вариант при тренировки модели, она сможет решить больше задач, и более качественно.

Это верно вот почему, и это ключевой момент, который, наверное, многие недостаточно хорошо понимают про языковые модели: когда вы получаете ответ от модели, она выдает его буква за буквой (точнее токен за токеном, но разница в данном случае неважна), и каждый раз "думает" заново, какую букву выдать следующей, и при каждом таком размышлении ВИДИТ ВСЕ, ЧТО УЖЕ НАПИСАЛА.

Поэтому если модель натренировали отвечать по первому шаблону, то она начнет выдавать: "Ответ $", и в этот момент ей нужно будет сказать правильный ответ, основываясь только на условии задачи. А если по второму, она может выдавать промежуточные результаты: апельсины $4, осталось $9, всего 3 яблока, надо поделить - не "вписываясь" за какой-то определенный ответ до самого конца - и в конце выдавать этот ответ, используя в том числе свои же предыдущие промежуточные размышления.

То, что Карпати не говорит тут, а я добавлю: тот же самый трюк вы можете использовать не во время тренировки, а во время использования больших моделей типа ChatGPT. Когда вы задаете модели сложный вопрос - необязательно математический - для ответа на который надо учесть много факторов, всегда стоит попробовать сказать ей: "Не давай мне ответ сразу, сначала сделай все промежуточные вычисления и приведи их результаты, и только потом напиши окончательный ответ".

Или: "Я хочу попробовать сделать X таким-то способом. Не пиши мне сразу, хорошая это идея или нет, сначала приведи список доводов за и против, а также альтернатив, и в самом конце подытожь и дай свою рекомендацию".

Я почти всегда именно так прошу языковые модели на что-то сложное и неочидное мне ответить или порекомендовать, просто потому, что у меня в голове есть эта устоявшаяся картинка того, как модель отвечает буква за буквой, все время потребляя все окно контекста, включая уже сказанную часть ответа. Нередко это неважно, потому что модель и так "решила", какой ответ хочет дать, на основании вопроса, и ей не нужна помощь в виде своих же промежуточных шагов. Но именно на самых сложных и неочевидных для моделей вопросов это часто помогает. Как минимум стоит об этом помнить и попробовать так сформулировать, если обычный и самый простой вопрос ведет к неверному ответу или бреду.
avva: (Default)
Примечательное заявление от анонимных хозяев Anna's Archive, самой большой и полезной пираткой библиотеки в последние несколько лет. Десятки миллионов книг и академических статей в ней чрезвычайно нужны не только людям, но и большим языковым моделям - хоть им и скармливают "весь интернет", и хотя весь интернет намного больше по размеру, чем архив Анны, в пиратских библиотеках есть огромное количество экспертных знаний, которых нет в открытом доступе.

Я давно подозревал, что LLMы тренируют на пиратских библиотеках, скорее всего на архиве Анны, но прямое подтверждение пришло месяц назад, в статье китайских разработчиков Deepseek это прямо указано, хотя с точки зрения законов о копирайте нелегальность всего этого очевидна (но типа идите подавайте на нас в суд в Китае). А пару недель назад сообщили, что в иске против Meta утверждается, что они скачивали архив Анны и Либген.

Я очень сильно подозреваю, что где-то в глубине OpenAI сидят один или два человека, которые единственные знают все технические и финансовые подробности того, как архив Анны качается и вставляется в процесс тренировки их моделей. И меня не удивит, если то же верно для Гугла и моделей Gemini, несмотря на очевидный огромный легальный риск. Преимущество, которое дает моделям такой огромный набор данных высокого качества, слишком велико. Вполне возможно, что его просто не преодолеть другими способами, и если вы одна из 5-6 компаний, соревнующихся в борьбе топ-моделей, то либо вы находите способ использовать эти данные, либо остаетесь позади.

На фоне этой реальности Анна (ну мы не знаем, конечно, что это реальное имя) раскрывает тот факт, что они дали доступ на высокой скорости (чтобы все можно было скачать за разумное время) 30 компаниям, в том числе американским, благоразумно не называя никакие имена, кроме Deepseek, которые сами признались. И призывает реформировать копирайт - ограничить 20 годами, и в любом случае исключить из него компании, собирающие тексты для хранения и компьютерной обработки, а не перепродажи; чтобы не дать тем странам, где на закон могут без проблем наплевать в случае нужды (Китай в первую очередь) вырваться вперед в гонке за лучший искусственный интеллект. Я не верю, что такой призыв может сейчас сработать, но если легальные проблемы действительно затормозят ведущие западные модели и через полгода-год это станет очевидным? Тогда - кто знает?

April 2025

S M T W T F S
   1 2 3 45
6 7 89 10 11 12
1314 15 1617 1819
2021 2223242526
27282930   

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Apr. 23rd, 2025 10:28 am
Powered by Dreamwidth Studios