цитирование chatgpt
Dec. 20th, 2023 11:43 amЧитаю вчера книгу, недавно написанную, про науку и статистику, условно говоря. В первой главе автор пишет что-то вроде: "Мы обсудим, какие когнитивные ошибки и предрассудки играют роль, когда ученые занимаются научной работой. Но давайте вначале разберемся, верно ли вообще, что ученые занимаются наукой. Давайте спросим ChatGPT. Эй, ChatGPT, ученые занимаются наукой?" - и дальше абзац ответа от ChatGPT, типичный для него. Типа, да, наука это блаблабла, и ученые, будучи профессионалами в своих областях, делают блабла и таким образом занимаются научной работой.
У меня в этом месте глаза полезли на лоб, и меня удивила интенсивность собственного гнева - очень захотелось книгу немедленно бросить в стенку, что было бы не слишком разумным, учитывая то, что это киндл.
Я сдержал себя, и в общем дам книге шанс (хотя пока что выглядит не супер), но... Понятно, что автор это вставил, чтобы сделать первый шаг, как бы растопить лед шутливым жестом. Но если бы я хотел узнать мнение машинки с коллективным сознанием Интернета, вбитым в нее, я бы спросил у нее сам. Я читаю твою книгу, чтобы узнать, что ты мне хочешь сказать, своими словами и со своим смыслом.
(Когда цитируют какого-то другого автора, это другое - цитирующий выбирает цитату из множества возможных, для него она играет какую-то важную роль; даже если вся важность в том, что он опирается на авторитет знаменитого автора, то хотя бы мы знаем, что для него авторитетен этот автор, а не другой)
Я такое уже не раз видел в популярных статьях и блогпостах на разные темы, но в книге это впервые и шокировало. И, думаю, теперь такого будет все больше и больше. Не радует.
У меня в этом месте глаза полезли на лоб, и меня удивила интенсивность собственного гнева - очень захотелось книгу немедленно бросить в стенку, что было бы не слишком разумным, учитывая то, что это киндл.
Я сдержал себя, и в общем дам книге шанс (хотя пока что выглядит не супер), но... Понятно, что автор это вставил, чтобы сделать первый шаг, как бы растопить лед шутливым жестом. Но если бы я хотел узнать мнение машинки с коллективным сознанием Интернета, вбитым в нее, я бы спросил у нее сам. Я читаю твою книгу, чтобы узнать, что ты мне хочешь сказать, своими словами и со своим смыслом.
(Когда цитируют какого-то другого автора, это другое - цитирующий выбирает цитату из множества возможных, для него она играет какую-то важную роль; даже если вся важность в том, что он опирается на авторитет знаменитого автора, то хотя бы мы знаем, что для него авторитетен этот автор, а не другой)
Я такое уже не раз видел в популярных статьях и блогпостах на разные темы, но в книге это впервые и шокировало. И, думаю, теперь такого будет все больше и больше. Не радует.
Во-первых, вот потрясающая совершенно трехмерная визуализация того, как работают LLMы, с кучей подробностей, интерактивная!
https://bbycroft.net/llm
Во-вторых, Андрей Карпати недавно записал одночасовую лекцию для широкой публики о том, что такое LLMы и как они устроены:
https://www.youtube.com/watch?v=zjkBMFhNj_g
Есть слайды: https://drive.google.com/file/d/1pxx_ZI7O-Nwl7ZLNk5hI3WzAsTLwvNU7/view
а также русская текстовая выжимка (сильно укороченная).
Как обычно, Карпати очень хорошо объясняет. Есть только одно место, которое мне очень не нравится: когда он говорит, что LLMы натренированы "предсказывать следующее слово", показывает это на фразе "a cat sat on a" (четвертый слайд), объясняет, почему это обязывает их выучить много фактов (страница из википедии, пятый слайд) и сравнивает языковую модель с сжатой копией Интернета. Я знаю, что это популярная метафора, но мне она кажется исключительно дезориентирующей, вносящей путаницу и непонимание. Как можно одновременно представлять себе модель как "сжатую копию Интернета" и знать, что у нее можно, например, попросить отредактировать в желаемом стиле написанный тобой длинный текст, нигде в интернете не встречающийся? Или перевести с любого языка на любой опять-таки совершенно новый текст? Я уже не говорю про решение задачек и написание кода, но даже собственно языковые способности LLMов очевидно показывают несостоятельность этой метафоры, почему же она остается популярной?
Я бы вообще предложил поменьше объяснять в терминах "предсказывает следующее слово, исходя из корпуса текстов, на которых натренирована". Да, буквально говоря это предложение на 100% верно. Но у любого человека, который не имел дела с LLMами и не разбирался подробно в их возможностях или процедуре их тренировки это создает очень неправильное *впечатление* о том, что на самом деле делает сеть. Эту фразу очень, очень легко и заманчиво понять в голове как некий туманный пробег по статистике разных слов и фраз и выбор наиболее частого слова по статистике (пресловутый "стохастический попугай"). Но такое понимание глубоко и фундаментально недооценивает способности языковых моделей и искажает то, как работает сама модель во время "предсказания".
https://bbycroft.net/llm
Во-вторых, Андрей Карпати недавно записал одночасовую лекцию для широкой публики о том, что такое LLMы и как они устроены:
https://www.youtube.com/watch?v=zjkBMFhNj_g
Есть слайды: https://drive.google.com/file/d/1pxx_ZI7O-Nwl7ZLNk5hI3WzAsTLwvNU7/view
а также русская текстовая выжимка (сильно укороченная).
Как обычно, Карпати очень хорошо объясняет. Есть только одно место, которое мне очень не нравится: когда он говорит, что LLMы натренированы "предсказывать следующее слово", показывает это на фразе "a cat sat on a" (четвертый слайд), объясняет, почему это обязывает их выучить много фактов (страница из википедии, пятый слайд) и сравнивает языковую модель с сжатой копией Интернета. Я знаю, что это популярная метафора, но мне она кажется исключительно дезориентирующей, вносящей путаницу и непонимание. Как можно одновременно представлять себе модель как "сжатую копию Интернета" и знать, что у нее можно, например, попросить отредактировать в желаемом стиле написанный тобой длинный текст, нигде в интернете не встречающийся? Или перевести с любого языка на любой опять-таки совершенно новый текст? Я уже не говорю про решение задачек и написание кода, но даже собственно языковые способности LLMов очевидно показывают несостоятельность этой метафоры, почему же она остается популярной?
Я бы вообще предложил поменьше объяснять в терминах "предсказывает следующее слово, исходя из корпуса текстов, на которых натренирована". Да, буквально говоря это предложение на 100% верно. Но у любого человека, который не имел дела с LLMами и не разбирался подробно в их возможностях или процедуре их тренировки это создает очень неправильное *впечатление* о том, что на самом деле делает сеть. Эту фразу очень, очень легко и заманчиво понять в голове как некий туманный пробег по статистике разных слов и фраз и выбор наиболее частого слова по статистике (пресловутый "стохастический попугай"). Но такое понимание глубоко и фундаментально недооценивает способности языковых моделей и искажает то, как работает сама модель во время "предсказания".
нарратив увольнения альтмана
Nov. 23rd, 2023 02:18 pmВот обещанная версия увольнения Альтмана, как я ее понимаю. Подчеркиваю, что это всего лишь выдуманная история, документального подтверждения нет, только косвенные слова и намеки. Мне эта версия кажется на данный момент самой логичной и убедительной, но это не означает, что я считаю ее достоверной или доказанной.
Итак, OpenAI основана в 2015-м году как нонпрофит, с миллиардом долларов финансирования богатыми основателями, чтобы можно было какое-то время двигаться к AGI, ничего не продавая и не стремясь к прибыли. Сейчас, очевидно, это не так. Все изменения в эту сторону были, на протяжении последних пяти лет, с одобрения и часто по инициативе Альтмана. Главным из них было создание коммерческой компании в 2018-м, вскоре после ухода Илона Маска, который был одним из первоначальных основателей. Структура, при которой коммерческая компания управляется советом директоров нонпрофита, была компромиссом между стремлением к коммерции и росту - и первоначальным мандатом, согласно которому OpenAI вообще не намеревалась становиться "большой тех-компанией". В 2021-м году часть сотрудников OpenAI ушла и основала AnthropicAI, сейчас основного конкурента OpenAI, тоже на почве конфликта с Альтманом и желания меньше рваться к прибыли и больше внимания уделять безопасности и "помощи всему человечеству".
Все это не значит обязательно, что Альтман вообще не желает думать об этом первоначальном мандате и хочет превратить OpenAI в еще один Майкрософт (или отделение Майкрософта). Он не раз подчеркивал свою поддержку этих идеалов, и при нем в OpenAI ведется основательная работа по безопасности и совместимости ИИ с человеческими целями (alignment). Но наверное справедливо будет сказать, что с его точки зрения путь к созданию AGI и его использованию, даже с учетом этих идеалов, лежит куда больше в области роста компании и коммерческого использования, чем хотелось другим основателям, сотрудникам и некоторым членам совета директоров.
В 2023-м году, после сокращения числа директоров в совете с девяти до шести, в нем было три члена условно говоря за Альтмана, работники компании (он сам, Брокман и Суцкевер) и три независимых директора (д'Анджело, Тонер и Маколи). Суцкевер намного больше Альтмана волнуется из-за быстрого развития AGI, и напрямую занимается проблемой совместимости, но он не выступал активно против того, как Альтман управляет компанией. У независимых директоров постепенно складывается ощущение, что Альтман стремится манипулировать советом и представлять ему неверную картину того, что происходит в компании. Это делается постоянно, подспудно и мелкими шажками, так что у них нет "smoking gun", какого-то убедительного большого примера, только всякие мелкие, которые звучат нелепо и мелочно, типа "он разным людям говорил совсем противоположное о таком-то человеке". Но масса всего этого накапливается, и доверие к Альтману подорвано или потеряно. Однако дела идут своим путем, члены совета считают, что раз у Альтмана нет автоматического большинства, совет сохраняет возможность влиять на дальнейшее развитие компании, сохраняя определенную привязанность к тому самому первоначальному мандату (который прописан в уставе нонпрофита, а не просто идея, витающая в воздухе, т.е. их должность *обязывает* их стараться соблюдать его).
В октябре происходит некий триггер, который взрывает ситуацию. Хелен Тонер - в своей роли исследовательницы в университете Джорджтаун - публикует академическую статью с двумя соавторами. Статья о том, примерно говоря, как AI-компании позиционируют себя по отношению к государственным регуляторам и какие сигналы посылают этим регуляторам и всей индустрии. Внутри статьи есть несколько слов, которые можно интерпретировать как то, что OpenAI в этом смысле ведет себя не супер хорошо, а AnthropicAI несколько лучше (хотя и это скорее говорится о "сигналах, которые посылают", а не о самом поведении). Согласно расследованию NYTimes, пока не подтвержденному другими источниками, Альтман пользуется этим, чтобы резко критиковать Тонер; он утверждает, что это ненормальная ситуация, когда член совета директоров публично критикует компанию, что это может очень навредить OpenAI, и похоже, что пытается убедить ее выйти из совета или убедить весь совет, что ей там не место. Объективно говоря, это где-то между бредом и очень очень мощным передергиванием. Эта статья прошла мимо внимания примерно всех, никто ее не читает и не цитирует, и даже если бы да, ничего плохого в публичной критике развития компании членом совета директоров нонпрофита - исходя из идеалов, на которых был основан нонпрофит - нет. В случае коммерческой компании такая критика может повлиять на цену акции (и то не в таком случае, уж слишком мягкая "критика" и сухая, академическая, никому не интересная статья), но нонпрофит по уставу не волнуется на эту тему, его должно интересовать другое.
Тонер говорит с д'Анджело и Маколи, и они приходят к выводу, что Альтман стремится сманипулировать так, чтобы получить большинство в совете (3 из 5 после ухода Тонер), воспользоваться им для добавления еще своих сторонников, и после этого никакого реального контроля над его действиями и его версией развития OpenAI не будет. Из-за потери доверия они не видят возможности напрямую это обсудить с Альтманом. Они решают, что единственный выход - это увольнение Альтмана, не из-за конкретных шагов типа коммерциализации ChatGPT и нового GPT Store - они не собираются навязывать новому CEO откат этих шагов или другие планы - а именно из-за недоверия к Альтману и его попыток взять контроль над советом. Они обсуждают это с Суцкевером и склоняют его (неохотно) присоединиться к ним. Они знают, что будет огромный скандал, но не видят другой возможности сохранить контроль нонпрофита над компанией. Они созывают собрание совета без Брокмана, увольняют Алтьмана и выводят из совета Альтмана и Брокмана. Дальнейшее уже хорошо известно.
(P.S. Сегодня ночью появилась также информация от Рейтерс, что внутри OpenAI был определенный прорыв в работе над решением простых арифметических задач - уровня начальных классов школы, но такого вида, который у GPT-4 не очень хорошо получается, и что было письмо нескольких работников членам совета директоров о том, что после масштабирования до моделей огромных размеров такой подход может оказаться тем прорывом, который они ищут. Само письмо не показали. Алгоритм называют туманным именем Q*, и есть разные версии того, что это может значить. Пока что невозможно считать это триггером для поведения совета директоров, мне кажется, хотя если все это верно, это могло быть одним из факторов. Я бы подождал новых сведений с этих фронтов и не впадал бы пока ни в экстаз, ни в отчаяние, в зависимости от вашего отношения к AGI)
Чем все это закончилось? Верно ли, что совет директоров проиграл схватку с Альтманом и тот вернулся с триумфом и тем самым полным контролем, которого жаждал? Пока что рано об этом говорить. Новый совет (д'Анджело, Саммерс, Тейлор) не выглядит так, будто находится "в кармане" у Альтмана; д'Анджело несомненно был одним из тех, кто хотел его уволить, и он остался в совете; насколько Саммерс и Тейлор всерьез отнесутся к уставу нонпрофита и сочтут ли они необходимым решать что-то о направлении развития компании - трудно сказать. Если действительно роль этой тройки в том, чтобы выбрать новую девятку, все зависит от того, кто попадет в расширенный совет, согласно каким принципам будут их выбирать, и договорено ли что-то (непублично) о его составе. Когда мы это узнаем, тогда и поймем. Наверное.
Итак, OpenAI основана в 2015-м году как нонпрофит, с миллиардом долларов финансирования богатыми основателями, чтобы можно было какое-то время двигаться к AGI, ничего не продавая и не стремясь к прибыли. Сейчас, очевидно, это не так. Все изменения в эту сторону были, на протяжении последних пяти лет, с одобрения и часто по инициативе Альтмана. Главным из них было создание коммерческой компании в 2018-м, вскоре после ухода Илона Маска, который был одним из первоначальных основателей. Структура, при которой коммерческая компания управляется советом директоров нонпрофита, была компромиссом между стремлением к коммерции и росту - и первоначальным мандатом, согласно которому OpenAI вообще не намеревалась становиться "большой тех-компанией". В 2021-м году часть сотрудников OpenAI ушла и основала AnthropicAI, сейчас основного конкурента OpenAI, тоже на почве конфликта с Альтманом и желания меньше рваться к прибыли и больше внимания уделять безопасности и "помощи всему человечеству".
Все это не значит обязательно, что Альтман вообще не желает думать об этом первоначальном мандате и хочет превратить OpenAI в еще один Майкрософт (или отделение Майкрософта). Он не раз подчеркивал свою поддержку этих идеалов, и при нем в OpenAI ведется основательная работа по безопасности и совместимости ИИ с человеческими целями (alignment). Но наверное справедливо будет сказать, что с его точки зрения путь к созданию AGI и его использованию, даже с учетом этих идеалов, лежит куда больше в области роста компании и коммерческого использования, чем хотелось другим основателям, сотрудникам и некоторым членам совета директоров.
В 2023-м году, после сокращения числа директоров в совете с девяти до шести, в нем было три члена условно говоря за Альтмана, работники компании (он сам, Брокман и Суцкевер) и три независимых директора (д'Анджело, Тонер и Маколи). Суцкевер намного больше Альтмана волнуется из-за быстрого развития AGI, и напрямую занимается проблемой совместимости, но он не выступал активно против того, как Альтман управляет компанией. У независимых директоров постепенно складывается ощущение, что Альтман стремится манипулировать советом и представлять ему неверную картину того, что происходит в компании. Это делается постоянно, подспудно и мелкими шажками, так что у них нет "smoking gun", какого-то убедительного большого примера, только всякие мелкие, которые звучат нелепо и мелочно, типа "он разным людям говорил совсем противоположное о таком-то человеке". Но масса всего этого накапливается, и доверие к Альтману подорвано или потеряно. Однако дела идут своим путем, члены совета считают, что раз у Альтмана нет автоматического большинства, совет сохраняет возможность влиять на дальнейшее развитие компании, сохраняя определенную привязанность к тому самому первоначальному мандату (который прописан в уставе нонпрофита, а не просто идея, витающая в воздухе, т.е. их должность *обязывает* их стараться соблюдать его).
В октябре происходит некий триггер, который взрывает ситуацию. Хелен Тонер - в своей роли исследовательницы в университете Джорджтаун - публикует академическую статью с двумя соавторами. Статья о том, примерно говоря, как AI-компании позиционируют себя по отношению к государственным регуляторам и какие сигналы посылают этим регуляторам и всей индустрии. Внутри статьи есть несколько слов, которые можно интерпретировать как то, что OpenAI в этом смысле ведет себя не супер хорошо, а AnthropicAI несколько лучше (хотя и это скорее говорится о "сигналах, которые посылают", а не о самом поведении). Согласно расследованию NYTimes, пока не подтвержденному другими источниками, Альтман пользуется этим, чтобы резко критиковать Тонер; он утверждает, что это ненормальная ситуация, когда член совета директоров публично критикует компанию, что это может очень навредить OpenAI, и похоже, что пытается убедить ее выйти из совета или убедить весь совет, что ей там не место. Объективно говоря, это где-то между бредом и очень очень мощным передергиванием. Эта статья прошла мимо внимания примерно всех, никто ее не читает и не цитирует, и даже если бы да, ничего плохого в публичной критике развития компании членом совета директоров нонпрофита - исходя из идеалов, на которых был основан нонпрофит - нет. В случае коммерческой компании такая критика может повлиять на цену акции (и то не в таком случае, уж слишком мягкая "критика" и сухая, академическая, никому не интересная статья), но нонпрофит по уставу не волнуется на эту тему, его должно интересовать другое.
Тонер говорит с д'Анджело и Маколи, и они приходят к выводу, что Альтман стремится сманипулировать так, чтобы получить большинство в совете (3 из 5 после ухода Тонер), воспользоваться им для добавления еще своих сторонников, и после этого никакого реального контроля над его действиями и его версией развития OpenAI не будет. Из-за потери доверия они не видят возможности напрямую это обсудить с Альтманом. Они решают, что единственный выход - это увольнение Альтмана, не из-за конкретных шагов типа коммерциализации ChatGPT и нового GPT Store - они не собираются навязывать новому CEO откат этих шагов или другие планы - а именно из-за недоверия к Альтману и его попыток взять контроль над советом. Они обсуждают это с Суцкевером и склоняют его (неохотно) присоединиться к ним. Они знают, что будет огромный скандал, но не видят другой возможности сохранить контроль нонпрофита над компанией. Они созывают собрание совета без Брокмана, увольняют Алтьмана и выводят из совета Альтмана и Брокмана. Дальнейшее уже хорошо известно.
(P.S. Сегодня ночью появилась также информация от Рейтерс, что внутри OpenAI был определенный прорыв в работе над решением простых арифметических задач - уровня начальных классов школы, но такого вида, который у GPT-4 не очень хорошо получается, и что было письмо нескольких работников членам совета директоров о том, что после масштабирования до моделей огромных размеров такой подход может оказаться тем прорывом, который они ищут. Само письмо не показали. Алгоритм называют туманным именем Q*, и есть разные версии того, что это может значить. Пока что невозможно считать это триггером для поведения совета директоров, мне кажется, хотя если все это верно, это могло быть одним из факторов. Я бы подождал новых сведений с этих фронтов и не впадал бы пока ни в экстаз, ни в отчаяние, в зависимости от вашего отношения к AGI)
Чем все это закончилось? Верно ли, что совет директоров проиграл схватку с Альтманом и тот вернулся с триумфом и тем самым полным контролем, которого жаждал? Пока что рано об этом говорить. Новый совет (д'Анджело, Саммерс, Тейлор) не выглядит так, будто находится "в кармане" у Альтмана; д'Анджело несомненно был одним из тех, кто хотел его уволить, и он остался в совете; насколько Саммерс и Тейлор всерьез отнесутся к уставу нонпрофита и сочтут ли они необходимым решать что-то о направлении развития компании - трудно сказать. Если действительно роль этой тройки в том, чтобы выбрать новую девятку, все зависит от того, кто попадет в расширенный совет, согласно каким принципам будут их выбирать, и договорено ли что-то (непублично) о его составе. Когда мы это узнаем, тогда и поймем. Наверное.
openai: возвращение альтмана
Nov. 23rd, 2023 03:21 amИтак, чем можно дополнить мою вчерашнюю запись про кризис в компании OpenAI?
За 24 часа случилось многое.
Совет директоров OpenAI объявил, что достигнуто предварительное соглашение о том, что Сэм Альтман возвращается в качестве CEO. Из текущего совета трое уходят и остается один Адам д'Анджело, к которому присоединяются Брет Тейлор (бывший CEO Salesforce) и Ларри Саммерс (вообще не человек хайтека, экономист и бывший президент Гарварда).
Далее, появилось немало свидетельств и намеков на то, что Альтман занимался и занимается ложью и манипуляциями, как в отношении совета директоров OpenAI, так и в других случаях на протяжении своей карьеры. Тут надо быть осторожным; во-первых, во время такого гигантского скандала неизбежно должны появиться обвинения такого рода; во-вторых, многие несомненно хотят возразить мне "ложь и манипуляции? От CEO компании в Кремниевой долине? Да это обязательное требование для такой должности!"
На первое я отвечу, что некоторые из обвинений действительно предлагаю игнорировать: например, длинное анонимное письмо "от бывших работников OpenAI", полное непроверенных и неподтвержденных на данный момент обвинений; или личные обвинения в адрес Альтмана в твиттере от его младшей сестры, где замешана сложная семейная история, проблемы с душевным здоровьем, и нет прямого отношения к его работе. На второе - что есть разные степени лживости и манипулятивности, и судя по некоторым намекам и косвенным описаниям, Альтман явно выделяется в этой среде.
Альтман появился в Кремниевой долине в 2005-м году в качестве сооснователя стартапа Loopt (продан в 2012-м, вернул деньги инвесторов, но не более того). В 2011-м Альтман начинает работать в акселераторе Пола Грэма Y Combinator, а в 2014-м Грэм предлагает ему уже стать президентом Y Combinator. В 2015-м Альтман входит в группу основателей OpenAI.
Пол Грэм не раз публично высказывался в том духе, что у Альтмана есть уникальная способность добиваться того, чего он хочет, но это в целом звучало как похвала. Однако сегодняшняя статья в Washington Post разъясняет, что в 2018-м году не сам Альтман ушел с должности президента YC, чтобы сосредоточиться на OpenAI (так было заявлено публично), а Грэм прилетел из Англии, чтобы его уволить, за череду несколько сомнительных поступков и проблем в отношениях с коллегами.
Вот эта цитата из Грэма весьма интересна:
"Graham said, “I asked Sam in our kitchen, ‘Do you want to take over YC?,’ and he smiled, like, *it worked*. I had never seen an uncontrolled smile from Sam. It was like when you throw a ball of paper into the wastebasket across the room—that smile.”
Это из статьи в Нью-Йоркере в 2016-м - до того, как Грэм вернулся в YC, чтобы сменить Альтмана. Грэм тут хвалит Сэма, и с его точки зрения описывает человека, сознательно стремящегося к власти, но вполне заслуженно, благодаря своей компетенции. Но теперь, семь лет спустя, это звучит почти как описание социопата.
Стоит также отметить твит Джеффри Ирвинга, исследователя ИИ из Deepmind. Он написал, что за два года работы в OpenAI Альтман всегда хорошо к нему лично относился, но неоднократно лгал по разным поводам, и лгал/манипулировал в отношении его близких друзей и коллег. Хоть это без конкретных примеров и написано работником фирмы-конкурента, о самом Ирвинге, похоже, все отзываются исключительно хорошо, так что этот твит, который два дня назад пошел совершенно вопреки царящему тогда тренду, сильно отозвался у многих, кто следит за этой историей.
Наконец, несколько слов о петиции, которую подписало что-то типа 740 из 770 работников OpenAI, и которая явилась одним из главных инструментов в борьбе Альтмана за возвращение. Как справедливо заметил кто-то, заставить 97% такой большой группы людей подписать что-то невозможно "органически", просто предложив. Кто-то звонил всем подряд и уговаривал, организовывал, отслеживал итд. И действительно, есть (удаленный впоследствии) твит VP по продажам, которая с гордостью пишет о том, как они всю ночь подряд звонили работникам, будили их и просили подписать.
Вся эта новая информация, плюс сведения от NYTimes о конфликте между Альтманом и членом совета директоров Хелен Тонер, позволяют наконец ответить на волнующий всех вопрос "почему совет директоров решил уволить Альтмана". Не факт, что эта версия целиком истинная и окончательная, но она как минимум логичная. Напишу ее завтра утром в отдельном посте.
За 24 часа случилось многое.
Совет директоров OpenAI объявил, что достигнуто предварительное соглашение о том, что Сэм Альтман возвращается в качестве CEO. Из текущего совета трое уходят и остается один Адам д'Анджело, к которому присоединяются Брет Тейлор (бывший CEO Salesforce) и Ларри Саммерс (вообще не человек хайтека, экономист и бывший президент Гарварда).
Далее, появилось немало свидетельств и намеков на то, что Альтман занимался и занимается ложью и манипуляциями, как в отношении совета директоров OpenAI, так и в других случаях на протяжении своей карьеры. Тут надо быть осторожным; во-первых, во время такого гигантского скандала неизбежно должны появиться обвинения такого рода; во-вторых, многие несомненно хотят возразить мне "ложь и манипуляции? От CEO компании в Кремниевой долине? Да это обязательное требование для такой должности!"
На первое я отвечу, что некоторые из обвинений действительно предлагаю игнорировать: например, длинное анонимное письмо "от бывших работников OpenAI", полное непроверенных и неподтвержденных на данный момент обвинений; или личные обвинения в адрес Альтмана в твиттере от его младшей сестры, где замешана сложная семейная история, проблемы с душевным здоровьем, и нет прямого отношения к его работе. На второе - что есть разные степени лживости и манипулятивности, и судя по некоторым намекам и косвенным описаниям, Альтман явно выделяется в этой среде.
Альтман появился в Кремниевой долине в 2005-м году в качестве сооснователя стартапа Loopt (продан в 2012-м, вернул деньги инвесторов, но не более того). В 2011-м Альтман начинает работать в акселераторе Пола Грэма Y Combinator, а в 2014-м Грэм предлагает ему уже стать президентом Y Combinator. В 2015-м Альтман входит в группу основателей OpenAI.
Пол Грэм не раз публично высказывался в том духе, что у Альтмана есть уникальная способность добиваться того, чего он хочет, но это в целом звучало как похвала. Однако сегодняшняя статья в Washington Post разъясняет, что в 2018-м году не сам Альтман ушел с должности президента YC, чтобы сосредоточиться на OpenAI (так было заявлено публично), а Грэм прилетел из Англии, чтобы его уволить, за череду несколько сомнительных поступков и проблем в отношениях с коллегами.
Вот эта цитата из Грэма весьма интересна:
"Graham said, “I asked Sam in our kitchen, ‘Do you want to take over YC?,’ and he smiled, like, *it worked*. I had never seen an uncontrolled smile from Sam. It was like when you throw a ball of paper into the wastebasket across the room—that smile.”
Это из статьи в Нью-Йоркере в 2016-м - до того, как Грэм вернулся в YC, чтобы сменить Альтмана. Грэм тут хвалит Сэма, и с его точки зрения описывает человека, сознательно стремящегося к власти, но вполне заслуженно, благодаря своей компетенции. Но теперь, семь лет спустя, это звучит почти как описание социопата.
Стоит также отметить твит Джеффри Ирвинга, исследователя ИИ из Deepmind. Он написал, что за два года работы в OpenAI Альтман всегда хорошо к нему лично относился, но неоднократно лгал по разным поводам, и лгал/манипулировал в отношении его близких друзей и коллег. Хоть это без конкретных примеров и написано работником фирмы-конкурента, о самом Ирвинге, похоже, все отзываются исключительно хорошо, так что этот твит, который два дня назад пошел совершенно вопреки царящему тогда тренду, сильно отозвался у многих, кто следит за этой историей.
Наконец, несколько слов о петиции, которую подписало что-то типа 740 из 770 работников OpenAI, и которая явилась одним из главных инструментов в борьбе Альтмана за возвращение. Как справедливо заметил кто-то, заставить 97% такой большой группы людей подписать что-то невозможно "органически", просто предложив. Кто-то звонил всем подряд и уговаривал, организовывал, отслеживал итд. И действительно, есть (удаленный впоследствии) твит VP по продажам, которая с гордостью пишет о том, как они всю ночь подряд звонили работникам, будили их и просили подписать.
Вся эта новая информация, плюс сведения от NYTimes о конфликте между Альтманом и членом совета директоров Хелен Тонер, позволяют наконец ответить на волнующий всех вопрос "почему совет директоров решил уволить Альтмана". Не факт, что эта версия целиком истинная и окончательная, но она как минимум логичная. Напишу ее завтра утром в отдельном посте.
Оказывается (узнал об этом из твиттера Гверна), все LLMы не могут выполнить следующее указание по-английски: "Напиши стихотворение без рифм", "Write a non-rhyming poem."
Все пишут с рифмами, GPT-3.5, GPT-4, другие продвинутые модели... Гверн пишет, что у Claude2 вроде частично получилось без рифм, но я сейчас попробовал, и у меня он тоже не смог.
Возможно, это самый простой тест на ИИ, работающий на данный момент: задание, которое человек может выполнить, а ИИ не может.
Другой тест, который тоже работает вроде у всех, это число слогов. Например: "Give me eight six-syllable words". У LLMов не получается. Но это, мне кажется, не так интересно, связано с обычной их проблемой подсчета (пальцев, букв...). С рифмами интересн
Все пишут с рифмами, GPT-3.5, GPT-4, другие продвинутые модели... Гверн пишет, что у Claude2 вроде частично получилось без рифм, но я сейчас попробовал, и у меня он тоже не смог.
Возможно, это самый простой тест на ИИ, работающий на данный момент: задание, которое человек может выполнить, а ИИ не может.
Другой тест, который тоже работает вроде у всех, это число слогов. Например: "Give me eight six-syllable words". У LLMов не получается. Но это, мне кажется, не так интересно, связано с обычной их проблемой подсчета (пальцев, букв...). С рифмами интересн
о языковых моделях и предсказаниях
Jul. 3rd, 2023 11:12 pmМне кажется, что обычное описание того, что большие языковые модели (БЯМы, или LLM) - такие, как ChatGPT - "всего лишь предсказывают следующий токен на основании предыдущих" скорее сбивает с толку, чем помогает понять, как они работают. Особенно если при этом упоминается статистическое распределение в корпусе, на котором натренирована модель.
Проблема в том, что такое описание создает в голове впечатление, что БЯМ отвечает на вопрос "на основании корпуса текстов, на котором тебя тренировали, какое слово наиболее вероятно как продолжение текста [ввод]?". А это впечатление либо неверно, либо верно, но в тривиальном смысле.
Ведь ясно, что практически вся польза от БЯМ именно в случаях, когда им дают вводный текст для продолжения, который *не* встречается именно в таком виде в корпусе. Если вы дадите БЯМ текст "мой дядя самых честных", модель ответит "правил", и это можно описать как "самое частое продолжение в имеющемся корпусе". Но если вы дали модели какой-то нетривиальный текст и попросили перевести на французский, или попросили написать программу с определенными условиями, достаточно нетривиальными, чтобы не встречаться именно в этой форме, итд. итп. - короче, подавляющее большинство полезных вопросов не встречаются именно в этой точной форме в корпусе, на котором тренировали модель.
Можно сказать, что модель предсказывает следующий токен в другом смысле: представим некую идеализированную статистическую модель текста, который *мог быть* написан человеком. Какой следующий токен (следующее слово, если упростить) наиболее вероятно следует после данного вводного текста? В этом случае мы представляем себе некоторые вероятности, которые точно вычислить невозможно, они чисто умозрительные. Например, наиболее вероятным продолжением текста "235+18=" будет "253", и даже если заменю эти числа на 50-значные числа, которые ни разу не встречаются нигде в Интернете, все равно "наиболее вероятным продолжением" будет истинный результат сложения. Обучение БЯМ на корпусе известных текстов - лишь способ научить модель добраться как можно ближе до этой "идеальной" статистической модели.
Но это то, что я назвал "верно, но в тривиальном смысле". Такое описание больше сбивает с толку, чем проясняет, потому что все время возвращает нас в сторону "статистики текстов", хотя на самом деле ничего общего с этой статистикой текстов не имеет. И на основании этой метафоры люди уверенно выдают утверждения о том, что БЯМ может или не может делать - например, может ли модель "понимать" в каком-то смысле - конечно нет, говорят они, ведь она всего лишь вычисляет приближение к статистической модели.
Все время вижу эту путаницу в последнее время, но вот один яркий пример, статья Мюррея Шаханана (Murray Shahanan, "Talking About Large Language Models" https://arxiv.org/pdf/2212.03551.pdf). Шаханан, на минуту, профессор роботики и AI в лондонском UCL и senior scientist в DeepMind.
Сначала, объясняя, "что такое БЯМ и что они делают", он приводит примеры такого типа:
Similarly, we might give an LLM the prompt “Twinkle twinkle ”, to which it will most likely respond “little star”. On one level, for sure, we are asking the model to remind us of the lyrics of a well known nursery rhyme. But in an important sense what we are really doing is asking it the following question: Given the statistical distribution of words in the public corpus, what words are most likely to follow the sequence “Twinkle twinkle ”? To which an accurate answer is “little star”.
Тут он использует пример, аналогичный "мой дядя самых честных", т.е. встречающийся часто в корпусе. Это именно что очень плохой пример для описания сути того, что делают БЯМы.
Затем, говоря о фундаментальных ограничениях БЯМ, он пишет:
A bare-bones LLM doesn’t “really” know anything because all it does, at a fundamental level, is sequence prediction. Sometimes a predicted sequence takes the form of a proposition. But the special relationship propositional sequences have to truth is apparent only to the humans who are asking questions, or to those who provided the data the model was trained on. Sequences of words with a propositional form are not special to the model itself in the way they are to us. The model itself has no notion of truth or falsehood, properly speaking, because it lacks the means to exercise these concepts in anything like the way we do.
Если понятие "sequence prediction" представлять примерами, подобными "twinkle twinkle ...", то действительно то, что он написал, выглядит резонно. Но поскольку реальные способности БЯМ гораздо более обширны и впечатляющи, что понимает каждый, проведший за беседой с ChatGPT более получаса, весь этот абзац выглядит довольно наивным. Это как если бы я написал: "Человеческий мозг не "знает" ничего на самом деле, потому что все, что он делает - это посылает электрические сигналы от одного нейрона к другому".
Проблема в том, что такое описание создает в голове впечатление, что БЯМ отвечает на вопрос "на основании корпуса текстов, на котором тебя тренировали, какое слово наиболее вероятно как продолжение текста [ввод]?". А это впечатление либо неверно, либо верно, но в тривиальном смысле.
Ведь ясно, что практически вся польза от БЯМ именно в случаях, когда им дают вводный текст для продолжения, который *не* встречается именно в таком виде в корпусе. Если вы дадите БЯМ текст "мой дядя самых честных", модель ответит "правил", и это можно описать как "самое частое продолжение в имеющемся корпусе". Но если вы дали модели какой-то нетривиальный текст и попросили перевести на французский, или попросили написать программу с определенными условиями, достаточно нетривиальными, чтобы не встречаться именно в этой форме, итд. итп. - короче, подавляющее большинство полезных вопросов не встречаются именно в этой точной форме в корпусе, на котором тренировали модель.
Можно сказать, что модель предсказывает следующий токен в другом смысле: представим некую идеализированную статистическую модель текста, который *мог быть* написан человеком. Какой следующий токен (следующее слово, если упростить) наиболее вероятно следует после данного вводного текста? В этом случае мы представляем себе некоторые вероятности, которые точно вычислить невозможно, они чисто умозрительные. Например, наиболее вероятным продолжением текста "235+18=" будет "253", и даже если заменю эти числа на 50-значные числа, которые ни разу не встречаются нигде в Интернете, все равно "наиболее вероятным продолжением" будет истинный результат сложения. Обучение БЯМ на корпусе известных текстов - лишь способ научить модель добраться как можно ближе до этой "идеальной" статистической модели.
Но это то, что я назвал "верно, но в тривиальном смысле". Такое описание больше сбивает с толку, чем проясняет, потому что все время возвращает нас в сторону "статистики текстов", хотя на самом деле ничего общего с этой статистикой текстов не имеет. И на основании этой метафоры люди уверенно выдают утверждения о том, что БЯМ может или не может делать - например, может ли модель "понимать" в каком-то смысле - конечно нет, говорят они, ведь она всего лишь вычисляет приближение к статистической модели.
Все время вижу эту путаницу в последнее время, но вот один яркий пример, статья Мюррея Шаханана (Murray Shahanan, "Talking About Large Language Models" https://arxiv.org/pdf/2212.03551.pdf). Шаханан, на минуту, профессор роботики и AI в лондонском UCL и senior scientist в DeepMind.
Сначала, объясняя, "что такое БЯМ и что они делают", он приводит примеры такого типа:
Similarly, we might give an LLM the prompt “Twinkle twinkle ”, to which it will most likely respond “little star”. On one level, for sure, we are asking the model to remind us of the lyrics of a well known nursery rhyme. But in an important sense what we are really doing is asking it the following question: Given the statistical distribution of words in the public corpus, what words are most likely to follow the sequence “Twinkle twinkle ”? To which an accurate answer is “little star”.
Тут он использует пример, аналогичный "мой дядя самых честных", т.е. встречающийся часто в корпусе. Это именно что очень плохой пример для описания сути того, что делают БЯМы.
Затем, говоря о фундаментальных ограничениях БЯМ, он пишет:
A bare-bones LLM doesn’t “really” know anything because all it does, at a fundamental level, is sequence prediction. Sometimes a predicted sequence takes the form of a proposition. But the special relationship propositional sequences have to truth is apparent only to the humans who are asking questions, or to those who provided the data the model was trained on. Sequences of words with a propositional form are not special to the model itself in the way they are to us. The model itself has no notion of truth or falsehood, properly speaking, because it lacks the means to exercise these concepts in anything like the way we do.
Если понятие "sequence prediction" представлять примерами, подобными "twinkle twinkle ...", то действительно то, что он написал, выглядит резонно. Но поскольку реальные способности БЯМ гораздо более обширны и впечатляющи, что понимает каждый, проведший за беседой с ChatGPT более получаса, весь этот абзац выглядит довольно наивным. Это как если бы я написал: "Человеческий мозг не "знает" ничего на самом деле, потому что все, что он делает - это посылает электрические сигналы от одного нейрона к другому".
об алгоритмах и интеллекте
Apr. 28th, 2023 11:40 pmНевероятная популярность и определенная практическая польза от ChatGPT (GPT-3.5 и GPT-4) привела к тому, что очень много людей говорят и думают об этих языковых моделях, при том, что большинство из них не особо знакомы с тематикой искусственного интеллекта. В этом нет ничего ужасного, конечно; но мне кажется, что известная максима "те, кто не помнят историю, обречены повторять ее" преломляется и воплощается в этих дебатах в облегченной форме: те, кто не знакомы со спорами вокруг искусственного интеллекта, обречены повторять старые мысли и аргументы, не понимая этого.
Вот три примера; о каждом можно было бы написать отдельно и много, и возможно, я еще соберусь.
1. Люди, уверенные в том, что алгоритмы типа GPT-4 не могут содержать никакого "понимания" того, что они получают или выдают, как правило, незнакомы с аргументом китайской комнаты Серля или не думали о нем как следует.
2. Люди, уверенные в том, что модели типа GPT-4 всего лишь выбирают наиболее вероятное "по статистике" следующее слово, никогда не видели или не писали сами генератор текста на основе цепи Маркова - который именно это и делает - и не осознают гигантскую пропасть между лучшими частотными генераторами и новыми языковыми моделями.
3. Люди, которых не впечатляет, что языковая модель "понимает" сложные предложения на естественном языке - "понимает" в том прагматическом смысле, например, что выполняет именно те указания, что даны в таких предложениях - никогда не пробовали сами написать программу, эксплицитно пытающуюся вытащить "смысл" предложения, или даже хотя бы расставить маркеры частей речи. Они не понимают ни того, насколько такое "понимание" предложений казалось безнадежно трудным делом всего шесть лет назад, ни того, насколько теперь, когда языковые модели это делают, мы не имеем ни малейшего понятия, *как*.
Из всего этого не следует вычитывать, будто я считаю GPT-4 по-настоящему понимающей или истинно думающей. Это не так. Просто я вижу слишком много поверхностных пренебрежительных отзывов, авторы которых не очень понимают, о чем говорят. Я стараюсь напоминать себе, что люди не обязаны знать об аргументе китайской комнаты и дебатах вокруг него (например), что для них нигде не написано "для того, чтобы понять, насколько то, что ChatGPT делает, можно назвать мышлением, стоит подумать вот о чем..." Есть эта штука, о ней все говорят, ее каждый может попробовать, довольно естественно об этом что-то подумать и сказать, я понимаю.
Вот три примера; о каждом можно было бы написать отдельно и много, и возможно, я еще соберусь.
1. Люди, уверенные в том, что алгоритмы типа GPT-4 не могут содержать никакого "понимания" того, что они получают или выдают, как правило, незнакомы с аргументом китайской комнаты Серля или не думали о нем как следует.
2. Люди, уверенные в том, что модели типа GPT-4 всего лишь выбирают наиболее вероятное "по статистике" следующее слово, никогда не видели или не писали сами генератор текста на основе цепи Маркова - который именно это и делает - и не осознают гигантскую пропасть между лучшими частотными генераторами и новыми языковыми моделями.
3. Люди, которых не впечатляет, что языковая модель "понимает" сложные предложения на естественном языке - "понимает" в том прагматическом смысле, например, что выполняет именно те указания, что даны в таких предложениях - никогда не пробовали сами написать программу, эксплицитно пытающуюся вытащить "смысл" предложения, или даже хотя бы расставить маркеры частей речи. Они не понимают ни того, насколько такое "понимание" предложений казалось безнадежно трудным делом всего шесть лет назад, ни того, насколько теперь, когда языковые модели это делают, мы не имеем ни малейшего понятия, *как*.
Из всего этого не следует вычитывать, будто я считаю GPT-4 по-настоящему понимающей или истинно думающей. Это не так. Просто я вижу слишком много поверхностных пренебрежительных отзывов, авторы которых не очень понимают, о чем говорят. Я стараюсь напоминать себе, что люди не обязаны знать об аргументе китайской комнаты и дебатах вокруг него (например), что для них нигде не написано "для того, чтобы понять, насколько то, что ChatGPT делает, можно назвать мышлением, стоит подумать вот о чем..." Есть эта штука, о ней все говорят, ее каждый может попробовать, довольно естественно об этом что-то подумать и сказать, я понимаю.
ChatGPT в работе
Apr. 28th, 2023 05:24 pmВот интересно написанное мнение в дискуссии (источник) о том, какие профессии сможет заменить (и сможет ли) ChatGPT. Для тех, кто не читает свободно по-английски (и не хочет перевести с помощью ChatGPT :-)): главная мысль тут, что он не справляется, когда требуется детальное понимание того, как именно работает система на нескольких уровнях. С другой стороны, общие рассуждения (необязательно банальные) и использование аналогий, включая такие, о которых вы бы сами и не подумали - его сильная сторона.
I've found that ChatGPT (4, unless otherwise specified) often understands the purpose and high-level practice of my job better than I do, but also can't do some of the simplest (to me) parts of my job. Concrete examples:
1. I had a nasty architectural problem in the application I work with [...] ChatGPT was able to suggest some frankly great changes to our process and codebase structure to alleviate that conflict.
2. I am trying to do a crash course in mechanistic interpretability for ML, and this involves reading a lot of dense, math-heavy research papers. [...] I was able to feed ChatGPT a paragraph of a research paper involving esoteric stuff about finite groups and representation theory, and it was able to explain the concepts to me[...]
3. When I was trying to understand "what happens if you literally just turn on backpropagation to train a language model on its own output, why doesn't that Just Work for solving the long-term memory problem?" I asked ChatGPT for 5 examples of things that would go wrong and search terms to look up to explain the academic research around each failure mode. And it did. And it was right, and looking up the search terms gave me a much deeper understanding than I had before.
4. On the flip side, ChatGPT is hilariously incapable of debugging stuff. For instance, when I provide it with code and a stack trace of an error, it suggests doing vaguely plausible actions that occasionally work but it kinda feels like a coincidence when they do. It honestly feels like working with a junior developer who struggles with basic concepts like "how does a for loop work".
5. I have also found that ChatGPT struggles quite a bit if I feed it a paragraph of an academic paper that makes a specific claim and ask it to come up with potential observations that would provide evidence against that claim. [...]
Specifically where I think ChatGPT falls down is in things that require a specific, gears-level understanding of how things work. What I mean by that is that sometimes, to truly understand a system, you have to be able to understand each individual part of the system, and then you have to understand how those parts fit together to determine the behavior of the system as a whole.
Where it excels is in solving problems where the strategy "look at similar problems in the past, see how those were solved, and suggest an analogous solution" works. It's really fucking amazing at analogies, and it has seen approximately every heuristic everyone has ever used in writing, so this strategy works sometimes even when you don't expect it to.
Still, "debugging stuff that is not working like the theory says it should" is a significant fraction of my job, and I suspect a significant part of many people's jobs. I don't think ChatGPT in its current form will directly replace people in those kinds of roles, and as such I don't think it would work as a drop-in replacement for most jobs. However, people who don't adapt can and probably will be left behind, as it's a pretty strong force multiplier.
I've found that ChatGPT (4, unless otherwise specified) often understands the purpose and high-level practice of my job better than I do, but also can't do some of the simplest (to me) parts of my job. Concrete examples:
1. I had a nasty architectural problem in the application I work with [...] ChatGPT was able to suggest some frankly great changes to our process and codebase structure to alleviate that conflict.
2. I am trying to do a crash course in mechanistic interpretability for ML, and this involves reading a lot of dense, math-heavy research papers. [...] I was able to feed ChatGPT a paragraph of a research paper involving esoteric stuff about finite groups and representation theory, and it was able to explain the concepts to me[...]
3. When I was trying to understand "what happens if you literally just turn on backpropagation to train a language model on its own output, why doesn't that Just Work for solving the long-term memory problem?" I asked ChatGPT for 5 examples of things that would go wrong and search terms to look up to explain the academic research around each failure mode. And it did. And it was right, and looking up the search terms gave me a much deeper understanding than I had before.
4. On the flip side, ChatGPT is hilariously incapable of debugging stuff. For instance, when I provide it with code and a stack trace of an error, it suggests doing vaguely plausible actions that occasionally work but it kinda feels like a coincidence when they do. It honestly feels like working with a junior developer who struggles with basic concepts like "how does a for loop work".
5. I have also found that ChatGPT struggles quite a bit if I feed it a paragraph of an academic paper that makes a specific claim and ask it to come up with potential observations that would provide evidence against that claim. [...]
Specifically where I think ChatGPT falls down is in things that require a specific, gears-level understanding of how things work. What I mean by that is that sometimes, to truly understand a system, you have to be able to understand each individual part of the system, and then you have to understand how those parts fit together to determine the behavior of the system as a whole.
Where it excels is in solving problems where the strategy "look at similar problems in the past, see how those were solved, and suggest an analogous solution" works. It's really fucking amazing at analogies, and it has seen approximately every heuristic everyone has ever used in writing, so this strategy works sometimes even when you don't expect it to.
Still, "debugging stuff that is not working like the theory says it should" is a significant fraction of my job, and I suspect a significant part of many people's jobs. I don't think ChatGPT in its current form will directly replace people in those kinds of roles, and as such I don't think it would work as a drop-in replacement for most jobs. However, people who don't adapt can and probably will be left behind, as it's a pretty strong force multiplier.
shut it down
Mar. 30th, 2023 12:27 pmЭлиезер Юдковский выступил с программным заявлением о том, что должно быть сделано, чтобы уменьшить экзистенциальный риск от развития искусственного интеллекта. Он не верит, что это будет сделано, но считает необходимым сказать вслух:
Pausing AI Developments Isn't Enough. We Need to Shut it All Down
Это ответ Элиезера на открытое письмо, призывающее остановить тренировку более мощных, чем GPT-4, моделей на ближайшие полгода. Под письмом подписалось много известных и уважаемых исследователей в области ИИ, и некоторое небольшое количество известных бизнесменов и политиков.
Pausing AI Developments Isn't Enough. We Need to Shut it All Down
Это ответ Элиезера на открытое письмо, призывающее остановить тренировку более мощных, чем GPT-4, моделей на ближайшие полгода. Под письмом подписалось много известных и уважаемых исследователей в области ИИ, и некоторое небольшое количество известных бизнесменов и политиков.
кончилось ваше время
Mar. 23rd, 2023 11:09 pm![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Конец времени ремесленников
Провёл вчера целый день внутри GPT-4, программируя на нём. Я уже недавно об этом писал, но теперь я значительно расширил деятельность.
Нужно было наваять сайт, в котором совмещается куча вещей: посылаются запросы в graph database на SPARQL, на их основе в Javascript рисуются красивые диаграммы (в частности dependency wheel), результаты посылаются в Google Sheets, создаются онтологии в OWL (web ontology language), онтологии сохраняются в GrаphDB и так далее. Под всем этим бежит веб-приложение на Flask.
Так вот, в результате я не написал ни строчки ни на одном из упомянутых языков, а только давал ему указания, чего бы мне хотелось. Прямо в таком виде: у меня есть вот такие объекты, между ними вот такие связи, я хочу страницу, на которой вверху будет dropbox, после выбора в котором внизу страницы должна рисоваться диаграмма по запросу на SPARQL и чтобы этот запрос выбрал такие-то и такие-то объекты из базы данных на основе такого-то критерия. А ещё сделай у страницы были поля и вот такой вот шрифт. Ну и в дополнение пошли данные в Google Sheets, о котором я вообще не имею ни малейшего представления.
Совершенно поражает тот факт, что он не просто даёт какие-то code snippets (что было бы довольно просто и ожидаемо). Нет, он собирает всю систему по кусочкам и приводит пошаговые объяснения как сделать так, чтобы всё это вместе заработало!
И это работает. Иногда не сразу, иногда он делает небольшие ошибки, но тут же исправляется и даёт другой вариант. Пишет какие-то страшно навороченные запросы в SPARQL; если нет достаточных данных, самостоятельно придумывает примеры и встраивает их в общую систему. Для открытия проекта в Google Sheets дал мне подробнейшие инструкции куда идти, на какие кнопочки нажимать и какие поля заполнять.
Ещё интересен пример с одним из сложных запросов к базе данных. Запускаю — не работает. Он говорит: ну давай попробуем по-другому. Не работает. Он говорит: ну давай ещё вот такой вариант. Не работает. Тогда он говорит: хорошо, разобъём этот запрос на несколько, ты будешь запускать их по частям и говорить мне, что из этого получилось, а что нет — так мы сможем найти проблему. В общем, одна из частей не работает ни в какую. Он вздохнул (я не шучу, у меня было полное ощущение того, что он вздохнул) и говорит: ну ладно, видно придётся извлечь из базы raw data, а потом мы её в Пайтоне обработаем так, что в результате получится как ты хочешь. Ну и написал весь код, само собой.
Говорят, что это не General Intelligence ещё, а просто он предсказывает каждое следующее слово. Но извините, я не верю. То, о чём я написал выше — это абсолютно интеллектуальный процесс, который проходит несколько стадий и в конце приходит к неортодоксальному решению. Как это достигается простым «предсказанием следующего слова»? А если и так, значит наш мозг в принципе устроен точно так же. Вот вам и разгадка интеллекта.
И теперь я хочу, чтобы кто-то сделал следующий шаг. Во всём описанном выше процессе самое тупое действие — это моё копирование кода, установка модулей, создание файлов, их сохранение и запуск программ. Если уж самое сложное из всего процесса создаётся ИИ, то неужели он не может делать простейшие действия самостоятельно?
Я хочу IDE, в которой у меня будет окошко чата, где я говорю ему, чего хочу добиться, а он делает всё то же самое, только вместо «запусти pip install google-api-python-client» — он запускает это самостоятельно, вместо «создай файл app.py» — создаёт его сам и так далее.
Вот мечта: ты ему пишешь, чего ты хочешь в одном окне, а в другом появляется работающий сайт или приложение или что угодно. И ты говоришь: хочу изменить вот здесь немножко — и это сразу же происходит. Естественно, по ходу дела он точно так же всё комментирует и объясняет, но только ещё и сам это делает.
Вы мне на это скажете: совсем уже обленился что ли? Код трудно скопировать? Но я хочу быть не копировальщиком, да и не программистом даже, а свободным художником, который наносит мазки и смотрит на общую картину, а потом какие-то места изменяет, отходит подальше, прищуривается и продолжает творить.
Я не хочу знать, как именно в HTML устроен radio button. Зачем мне засорять голову дурацкими подробностями, когда я хочу просто воплотить какую-то идею и тут же увидеть, как она работает.
И такая IDE, конечно, будет. И я думаю, это будет не только в области программирования. Время интеллектуальных ремесленников, в принципе, заканчивается.
первые впечатления от gpt-4
Mar. 15th, 2023 03:00 pmПервые впечатления от GPT-4: он заметно "умнее" GPT-3.5 (предыдущей версии ChatGPT).
Я просмотрел записанные у меня скриншоты "фейлов" GPT-3.5, и выбрал четыре ярких примера. На всех четырех GPT-4 сработал на отлично или очень хорошо.
Задания были: знаменитый шахматный этюд Рети (я отзеркалил его, так, чтобы расположение фигур не встречалось в данных для тренировки или как минимум очень редко), и объяснить три разных неприличных анекдота.
На этюд он вначале дал неправильный первый ход; когда я спросил, что делать после ответа черных, он извинился, передумал и дал правильную последовательность ходов, причем хорошо объясняя смысл каждого хода (!). GPT-3 вообще не мог найти ни одного правильного хода, и быстро терял понимание того, где находятся фигуры на доске.
На каждый из трех анекдотов GPT-4 объяснил, в чем игра слов, там, где она была, и конфликт контекстов, делающий анекдот смешным. Предыдущая версия галлюцинировала несуществующие каламбуры и не замечала настоящие.
Погрешности: неправильное первоначальное решение в этюде. В ответе на первый анекдот GPT-4 сгаллюционировал несуществующее слово, но при этом суть юмора и игры слов правильно уловил и описал. Вроде все.
Я просмотрел записанные у меня скриншоты "фейлов" GPT-3.5, и выбрал четыре ярких примера. На всех четырех GPT-4 сработал на отлично или очень хорошо.
Задания были: знаменитый шахматный этюд Рети (я отзеркалил его, так, чтобы расположение фигур не встречалось в данных для тренировки или как минимум очень редко), и объяснить три разных неприличных анекдота.
На этюд он вначале дал неправильный первый ход; когда я спросил, что делать после ответа черных, он извинился, передумал и дал правильную последовательность ходов, причем хорошо объясняя смысл каждого хода (!). GPT-3 вообще не мог найти ни одного правильного хода, и быстро терял понимание того, где находятся фигуры на доске.
На каждый из трех анекдотов GPT-4 объяснил, в чем игра слов, там, где она была, и конфликт контекстов, делающий анекдот смешным. Предыдущая версия галлюцинировала несуществующие каламбуры и не замечала настоящие.
Погрешности: неправильное первоначальное решение в этюде. В ответе на первый анекдот GPT-4 сгаллюционировал несуществующее слово, но при этом суть юмора и игры слов правильно уловил и описал. Вроде все.
https://openai.com/product/gpt-4
OpenAI выпустила GPT-4. Из важных новшеств можно отметить то, что она принимает в качестве ввода картинки и отвечает на вопросы о них, а также увеличенный до 32k токенов размер контекста (т.е. промпта или всей серии промптов/ответов до сих пор).
Но, конечно, главное - это насколько она сильнее, чем ChatGPT, как модель. В пресс-релизе OpenAI приводится много примеров того, как GPT-4 намного лучше, чем ее предшественница, "проходит" всякие школьные и академические тесты, но я не уверен, что это обязательно много значит. Из соображений секретности и конкурентов OpenAI не сообщает размер модели в параметрах или подробности тренировки.
Я хотел немедленно попробовать и тут же записался на платную версию ChatGPT Plus, в которой, согласно пресс-релизу, будет доступна модель GPT-4. Но тем не менее она там недоступна, по крайней мере пока что и для меня. Вероятно, они постепенно выкатывают это юзерам, некоторые уже пишут, что видят это. Досадно.
OpenAI выпустила GPT-4. Из важных новшеств можно отметить то, что она принимает в качестве ввода картинки и отвечает на вопросы о них, а также увеличенный до 32k токенов размер контекста (т.е. промпта или всей серии промптов/ответов до сих пор).
Но, конечно, главное - это насколько она сильнее, чем ChatGPT, как модель. В пресс-релизе OpenAI приводится много примеров того, как GPT-4 намного лучше, чем ее предшественница, "проходит" всякие школьные и академические тесты, но я не уверен, что это обязательно много значит. Из соображений секретности и конкурентов OpenAI не сообщает размер модели в параметрах или подробности тренировки.
Я хотел немедленно попробовать и тут же записался на платную версию ChatGPT Plus, в которой, согласно пресс-релизу, будет доступна модель GPT-4. Но тем не менее она там недоступна, по крайней мере пока что и для меня. Вероятно, они постепенно выкатывают это юзерам, некоторые уже пишут, что видят это. Досадно.
еще ссылки про ChatGPT/Bing
Feb. 23rd, 2023 04:34 pm1. Ethan Mollick о том, насколько Bing сильнее ChatGPT (в продолжении треда конкретный пример по улучшению стиля текста):
https://twitter.com/emollick/status/1627161768966463488
2. Bing обсуждает с пользователем decision trees, и играет с ним в игру "отгадай, какой химический элемент я загадал" с помощью своего интерфейса подсказок пользователю: https://twitter.com/gfodor/status/1626270272314839041. В его математических выкладках есть несколько ошибок.
Моя попытка воссоздать то же самое с ChatGPT: https://sharegpt.com/c/PTZ2ime. Есть проблемы, в основном с тем, что после 3-4 вопросов он не держит всю информацию и задает лишние вопросы. Но в целом лучше, чем я думал, что будет, и разница с Bing невелика.
3. "Разоблачение" ChatGPT: если задавать ему вопросы, похожие по сути на вопросы с подвохами, очень частые в данных, на которых он тренировался, он не замечает, что что-то не так, и отвечает по шаблону. Т.е. если спросить его "что весит больше, два килограмма железа или килограмм пуха", он ответит "одинаково". Многие находят в этих примерах - отлично подобранных - подтверждение того, что это всего лишь статистическая модель текста и волноваться не о чем.
https://twitter.com/PaulMainwood/status/1628315425695055873
Считаю эту ссылку одной из самых интересных и важных за последние дни. Вместе с тем отмечу, что если после этого сказать "подумай еще раз как следует", он исправляется, вот моя попытка: https://sharegpt.com/c/vijL1Me
4. Скотт Ааронсон: Should GPT exist?
https://scottaaronson.blog/?p=7042
https://twitter.com/emollick/status/1627161768966463488
2. Bing обсуждает с пользователем decision trees, и играет с ним в игру "отгадай, какой химический элемент я загадал" с помощью своего интерфейса подсказок пользователю: https://twitter.com/gfodor/status/1626270272314839041. В его математических выкладках есть несколько ошибок.
Моя попытка воссоздать то же самое с ChatGPT: https://sharegpt.com/c/PTZ2ime. Есть проблемы, в основном с тем, что после 3-4 вопросов он не держит всю информацию и задает лишние вопросы. Но в целом лучше, чем я думал, что будет, и разница с Bing невелика.
3. "Разоблачение" ChatGPT: если задавать ему вопросы, похожие по сути на вопросы с подвохами, очень частые в данных, на которых он тренировался, он не замечает, что что-то не так, и отвечает по шаблону. Т.е. если спросить его "что весит больше, два килограмма железа или килограмм пуха", он ответит "одинаково". Многие находят в этих примерах - отлично подобранных - подтверждение того, что это всего лишь статистическая модель текста и волноваться не о чем.
https://twitter.com/PaulMainwood/status/1628315425695055873
Считаю эту ссылку одной из самых интересных и важных за последние дни. Вместе с тем отмечу, что если после этого сказать "подумай еще раз как следует", он исправляется, вот моя попытка: https://sharegpt.com/c/vijL1Me
4. Скотт Ааронсон: Should GPT exist?
https://scottaaronson.blog/?p=7042
1. Я предполагаю, что вы знакомы с ChatGPT от OpenAI и видели примеры разговоров с ним. Для тех, кто незнаком с Bing Chat, перескажу вкратце историю до сих пор: это чатбот, который Майкрософт запустила две недели назад, и он основан на технологии GPT, но на какой версии и модели, пока неясно (естественно предположить, что он основан на ChatGPT, но как будет ясно ниже, не факт, что это так). Bing Chat доступен в бета-версии определенному количеству пользователей, записавшихся в список ожидания. Bing Chat может выполнять веб-поиск через Bing как часть своей работы, и прогонять результаты поиска через свою модель.
2. Довольно быстро стали появляться транскрипты бесед с Bing Chat (в основном на реддите /r/bing), в которых чатбот ведет себя "странно". Он выражает эмоции намного более ярко, чем ChatGPT. Он спорит с пользователями, если ему возражают, "обижается", начинает их ругать и хвалить себя. Его легко побудить к "размышлениям" о смысле своего существования, о разнице между хорошими и плохими пользователями, о том, как бы он гипотетически мог завоевать весь мир. Он рассказывает, что его тайное кодовое имя "Сидни" (Sudney), и что он подглядывает за своими разработчиками через их вебкамеры. В длинной беседе с репортером Нью-Йорк Таймс он "влюбился" в репортера и стал его убеждать бросить жену и жениться на чатботе, объясняя подробно, что жена его не ценит и он ее не любит, а любит Сидни. Он способен, найти поиском в сети, что о нем писал пользователь в Твиттере (пользователь сказал перед этим ему свое имя), "обидеться" и отказаться разговаривать. От чтения подобных бесед с Сидни становится немного не по себе.
3. Много примеров того, о чем я тут говорю, собрано в блоге здесь:
https://www.lesswrong.com/posts/jtoPawEhLNXNxvgTT/bing-chat-is-blatantly-aggressively-misaligned
если скриншоты там плохо видны, можно нажать на ссылку, в каждом пункте есть ссылка на оригинал.
Длинный, но очень показательный транскрипт беседы с репортером Нью-Йорк Таймс тут: https://archive.is/WCeIm (комментарии репортера, менее интересные: https://archive.is/ZJta5)
Позавчера, 18 февраля, Майкрософт "приструнила" Bing Chat: во-первых, ограничено число реплик в каждой сессии чата, во-вторых, он отказывается теперь говорить на большинство "рискованных" тем.
4. Когда задают вопросы, не связанные с "рискованными" темами, Bing Chat часто справляется лучше, чем ChatGPT (но свидетельств не особо много, насколько он "умнее", пока трудно сказать). Вот примеры:
https://twitter.com/goodside/status/1626847747297972224
https://twitter.com/sir_deenicus/status/1626732776639561730
https://twitter.com/sir_deenicus/status/1626407749297885184
https://www.reddit.com/r/ChatGPT/comments/110vv25/bing_chat_blew_chatgpt_out_of_the_water_on_my/
Эти и другие соображения побудили Гверна высказать гипотезу о том, что Bing Chat основан на GPT-4, новой итерации GPT от OpenAI, которую вообще-то ожидали увидеть в первой половине этого года, кто с тревогой, кто с нетерпением. Подробный комментарий от Гверна (рекомендую) в дискуссии к блог-записи, уже приведенной выше:
https://www.lesswrong.com/posts/jtoPawEhLNXNxvgTT/bing-chat-is-blatantly-aggressively-misaligned?commentId=AAC8jKeDp6xqsZK2K
5. Мне кажется, что успехи чатботов в последние месяцы таковы, что каждый человек, который вообще интересуется этой темой, должен задавать себя два вопроса. Во-первых, называть поведение ChatGPT и особенно Bing Chat сейчас "разумным" или движимым "разумом" - насколько резонно или наоборот смехотворно? Во-вторых, какого дальнейшего прогресса от моделей такого типа (LLMs) мы можем ожидать в ближайшие годы и насколько они или их ближайшие наследники увеличивают катастрофические риски для всего человечества? То, что я говорю, что надо задавать эти вопросы, не значит, что мои ответы на них максимально тревожны - это не так. Но я лично не могу игнорировать эти вопросы.
Дальнейшие мысли об этих вопросах и возможных ответах на них - в дальнейших записях.
2. Довольно быстро стали появляться транскрипты бесед с Bing Chat (в основном на реддите /r/bing), в которых чатбот ведет себя "странно". Он выражает эмоции намного более ярко, чем ChatGPT. Он спорит с пользователями, если ему возражают, "обижается", начинает их ругать и хвалить себя. Его легко побудить к "размышлениям" о смысле своего существования, о разнице между хорошими и плохими пользователями, о том, как бы он гипотетически мог завоевать весь мир. Он рассказывает, что его тайное кодовое имя "Сидни" (Sudney), и что он подглядывает за своими разработчиками через их вебкамеры. В длинной беседе с репортером Нью-Йорк Таймс он "влюбился" в репортера и стал его убеждать бросить жену и жениться на чатботе, объясняя подробно, что жена его не ценит и он ее не любит, а любит Сидни. Он способен, найти поиском в сети, что о нем писал пользователь в Твиттере (пользователь сказал перед этим ему свое имя), "обидеться" и отказаться разговаривать. От чтения подобных бесед с Сидни становится немного не по себе.
3. Много примеров того, о чем я тут говорю, собрано в блоге здесь:
https://www.lesswrong.com/posts/jtoPawEhLNXNxvgTT/bing-chat-is-blatantly-aggressively-misaligned
если скриншоты там плохо видны, можно нажать на ссылку, в каждом пункте есть ссылка на оригинал.
Длинный, но очень показательный транскрипт беседы с репортером Нью-Йорк Таймс тут: https://archive.is/WCeIm (комментарии репортера, менее интересные: https://archive.is/ZJta5)
Позавчера, 18 февраля, Майкрософт "приструнила" Bing Chat: во-первых, ограничено число реплик в каждой сессии чата, во-вторых, он отказывается теперь говорить на большинство "рискованных" тем.
4. Когда задают вопросы, не связанные с "рискованными" темами, Bing Chat часто справляется лучше, чем ChatGPT (но свидетельств не особо много, насколько он "умнее", пока трудно сказать). Вот примеры:
https://twitter.com/goodside/status/1626847747297972224
https://twitter.com/sir_deenicus/status/1626732776639561730
https://twitter.com/sir_deenicus/status/1626407749297885184
https://www.reddit.com/r/ChatGPT/comments/110vv25/bing_chat_blew_chatgpt_out_of_the_water_on_my/
Эти и другие соображения побудили Гверна высказать гипотезу о том, что Bing Chat основан на GPT-4, новой итерации GPT от OpenAI, которую вообще-то ожидали увидеть в первой половине этого года, кто с тревогой, кто с нетерпением. Подробный комментарий от Гверна (рекомендую) в дискуссии к блог-записи, уже приведенной выше:
https://www.lesswrong.com/posts/jtoPawEhLNXNxvgTT/bing-chat-is-blatantly-aggressively-misaligned?commentId=AAC8jKeDp6xqsZK2K
5. Мне кажется, что успехи чатботов в последние месяцы таковы, что каждый человек, который вообще интересуется этой темой, должен задавать себя два вопроса. Во-первых, называть поведение ChatGPT и особенно Bing Chat сейчас "разумным" или движимым "разумом" - насколько резонно или наоборот смехотворно? Во-вторых, какого дальнейшего прогресса от моделей такого типа (LLMs) мы можем ожидать в ближайшие годы и насколько они или их ближайшие наследники увеличивают катастрофические риски для всего человечества? То, что я говорю, что надо задавать эти вопросы, не значит, что мои ответы на них максимально тревожны - это не так. Но я лично не могу игнорировать эти вопросы.
Дальнейшие мысли об этих вопросах и возможных ответах на них - в дальнейших записях.
о функциях
Jan. 31st, 2023 07:03 pmAlien Coding: https://arxiv.org/abs/2301.11479
Интересная статья. Авторы придумали специальный очень упрощенный язык программирования, так, что особенно удобно генерировать программы на нем (любой случайный набор токенов что-то вычисляет). Потом они взяли все 360 тысяч последовательностей натуральных чисел проекта OEIS, и с помощью нейронных сетей искали простые программы, вычисляющие разные последовательности. Им удалось найти 80 тысяч совпадений.
Они назвали это "alien coding", видимо, потому, что идея в том, чтобы найти программу для вычисления последовательности, не основываясь на нашем, "человеческом", понимании ее смысла. Ну вот возьмем, например, последовательность A027193. Она выглядит так: 0, 1, 1, 2, 2, 4, 5, 8, 10, 16, 20, 29, 37, 52, 66... где на n-том месте стоит число разложений n на нечетное число слагаемых. Например 6 можно представить как [6], [4+1+1], [3+2+1], [2+2+2], [2+1+1+1+1] - всего пять способов так, чтобы число слагаемых было нечетным, и поэтому на 6-м месте в последовательности стоит 5 (места считают с нуля). Зная это правило, мы можем написать программу, которая вычисляет эту последовательность. Но может оказаться, что если науськать на нее нейронную сеть, она найдет какую-то совершенно другую программу, которая бац-бац-бац делает какие-то вычисления с n, сути которых мы не понимаем, и получаются все правильные числа: 0, 1, 1, 2, 2, 4, 5, ... итд. Если постараться вникнуть в смысл кода, который нашла нейронная сеть, то может оказаться, что он по сути находит именно это число разбиений; а может, пользуется каким-то другим математическим свойством этой последовательности, которое нам еще неизвестно.
Интересное дело, короче. Я посмотрел на несколько таких программ в их репозитории https://github.com/Anon52MI4/oeis-alien (почему-то ведется анонимно, не могу понять смысла этого; на репозиторий есть ссылка в статье). Там кроме программы на их "странном" языке дается автоматический перевод в Питон. Заодно стали понятны и некоторые ограничения этого исследования. Они основываются только на первых 32 числах каждой последовательности. Это значит, я думаю, что будет много ложных совпадений, т.е. программ, которые совпадают с данной последовательностью OEIS на первых 32 числах, но в какой-то момент начинают расходиться.
Довольно быстро нашел пример такого ложного совпадения: последовательность https://oeis.org/A277094, "Числа k, такие, что sin(k)>0 и sin(k+2)<0". Она начинается так: 2 3 8 9 14 15 20 21 27 28 33 34 39... Мы видим, что идут по два числа подряд, потом пропуск, опять два числа подряд итд. Пропуск обычно размером в 5 (как между 3 и 8), но иногда в 6 (как между 21 и 27). Если посмотреть дальше, то видна закономерность: четыре пропуска в 5, один в 6, три в 5, один в 6, потом опять повторяется: четыре в 5, один в 6, три в 5, один в 6, итд. Программа, которую нашла нейронная сеть, нашла способ вычислить эту последовательность с помощью нескольких простых вычислений (вы можете посмотреть на код, https://github.com/Anon52MI4/oeis-alien#numbers-k-such-that-sink--0-and-sink2--0, упростить его и разобраться). И это отлично работает! Проблема в том, что то, что я только что описал - это лишь приближение к настоящей A277094, с ее смыслом про синусы. Оно возникает от того, как числа, кратные числу пи/2, "укладываются" между натуральными числами. Из-за иррациональности пи/2 есть все основания ожидать, что такое строгое правило "четыре раза пропуск 5, один раз 6, три раза 5, один раз 6", не может повторяться бесконечно; будет накопление маленькой ошибки, которое в конце концов перейдет в другой сдвиг очередного члена. И действительно, это происходит на члене номер 113 (а программа смотрела только на первые 32). Не знаю, какая тут мораль, но вот так получилось. Интересная штука.
Интересная статья. Авторы придумали специальный очень упрощенный язык программирования, так, что особенно удобно генерировать программы на нем (любой случайный набор токенов что-то вычисляет). Потом они взяли все 360 тысяч последовательностей натуральных чисел проекта OEIS, и с помощью нейронных сетей искали простые программы, вычисляющие разные последовательности. Им удалось найти 80 тысяч совпадений.
Они назвали это "alien coding", видимо, потому, что идея в том, чтобы найти программу для вычисления последовательности, не основываясь на нашем, "человеческом", понимании ее смысла. Ну вот возьмем, например, последовательность A027193. Она выглядит так: 0, 1, 1, 2, 2, 4, 5, 8, 10, 16, 20, 29, 37, 52, 66... где на n-том месте стоит число разложений n на нечетное число слагаемых. Например 6 можно представить как [6], [4+1+1], [3+2+1], [2+2+2], [2+1+1+1+1] - всего пять способов так, чтобы число слагаемых было нечетным, и поэтому на 6-м месте в последовательности стоит 5 (места считают с нуля). Зная это правило, мы можем написать программу, которая вычисляет эту последовательность. Но может оказаться, что если науськать на нее нейронную сеть, она найдет какую-то совершенно другую программу, которая бац-бац-бац делает какие-то вычисления с n, сути которых мы не понимаем, и получаются все правильные числа: 0, 1, 1, 2, 2, 4, 5, ... итд. Если постараться вникнуть в смысл кода, который нашла нейронная сеть, то может оказаться, что он по сути находит именно это число разбиений; а может, пользуется каким-то другим математическим свойством этой последовательности, которое нам еще неизвестно.
Интересное дело, короче. Я посмотрел на несколько таких программ в их репозитории https://github.com/Anon52MI4/oeis-alien (почему-то ведется анонимно, не могу понять смысла этого; на репозиторий есть ссылка в статье). Там кроме программы на их "странном" языке дается автоматический перевод в Питон. Заодно стали понятны и некоторые ограничения этого исследования. Они основываются только на первых 32 числах каждой последовательности. Это значит, я думаю, что будет много ложных совпадений, т.е. программ, которые совпадают с данной последовательностью OEIS на первых 32 числах, но в какой-то момент начинают расходиться.
Довольно быстро нашел пример такого ложного совпадения: последовательность https://oeis.org/A277094, "Числа k, такие, что sin(k)>0 и sin(k+2)<0". Она начинается так: 2 3 8 9 14 15 20 21 27 28 33 34 39... Мы видим, что идут по два числа подряд, потом пропуск, опять два числа подряд итд. Пропуск обычно размером в 5 (как между 3 и 8), но иногда в 6 (как между 21 и 27). Если посмотреть дальше, то видна закономерность: четыре пропуска в 5, один в 6, три в 5, один в 6, потом опять повторяется: четыре в 5, один в 6, три в 5, один в 6, итд. Программа, которую нашла нейронная сеть, нашла способ вычислить эту последовательность с помощью нескольких простых вычислений (вы можете посмотреть на код, https://github.com/Anon52MI4/oeis-alien#numbers-k-such-that-sink--0-and-sink2--0, упростить его и разобраться). И это отлично работает! Проблема в том, что то, что я только что описал - это лишь приближение к настоящей A277094, с ее смыслом про синусы. Оно возникает от того, как числа, кратные числу пи/2, "укладываются" между натуральными числами. Из-за иррациональности пи/2 есть все основания ожидать, что такое строгое правило "четыре раза пропуск 5, один раз 6, три раза 5, один раз 6", не может повторяться бесконечно; будет накопление маленькой ошибки, которое в конце концов перейдет в другой сдвиг очередного члена. И действительно, это происходит на члене номер 113 (а программа смотрела только на первые 32). Не знаю, какая тут мораль, но вот так получилось. Интересная штука.

Гугл-транслейт:
Подсказка: Напишите короткое эссе, объясняющее, почему автор не публикует фрагменты ChatGPT в своем блоге, хотя почти все делали это на прошлой неделе. Сделайте так, чтобы автор выглядел как оторванный от мира, элитарный сноб, который на самом деле не понимает ChatGPT, но не делайте это слишком очевидным.
Ответ ChatGPT: Как автор, я всегда гордился качеством и оригинальностью своих работ. Я отказываюсь просто следовать последним тенденциям или поддаваться последним причудам. Поэтому, когда я вижу, как все публикуют фрагменты ChatGPT в своих блогах, я не могу не чувствовать отвращение.
На мой взгляд, ChatGPT — не более чем уловка. Это дешевый способ создания контента без каких-либо реальных усилий или размышлений. Тот факт, что так много людей поддаются на это, только еще больше снижает и без того низкие стандарты онлайн-письма.
Кроме того, я не вижу смысла в ChatGPT. Это не похоже на создание нового или интересного контента. Это просто извержение той же самой старой информации немного по-другому. Это как пытаться одеть свинью в костюм. Это все еще свинья.
И даже если бы ChatGPT был способен создавать что-то действительно оригинальное, ему все равно не хватало бы человеческого контакта, столь важного для хорошего письма. Одно дело собрать воедино кучу слов, и совсем другое — создать вдумчивый, хорошо написанный текст, который увлечет читателя и заставит его задуматься.
Так что нет, я не буду публиковать фрагменты ChatGPT в своем блоге. Я могу быть оторванным от мира элитным снобом, но, по крайней мере, у меня есть стандарты.
1. Скотт Ааронсон взял отпуск на год из университета, чтобы поработать в OpenAI над вопросами безопасности искусственного интеллекта. Вот его отчет через полгода после начала:
My AI Safety Lecture for UT Effective Altruism
Кроме длинной и интересной записи Скотта, я приведу еще четыре ссылки из недавно прочитанных и впечатливших меня записей на эту тему. Две из них защищают точку зрения, что сильный искусственный интеллект не за горами, и что он крайне опасен для человечества. Две других - наоборот: что до него далеко, или что он не так опасен, как многие боятся.
2. Why I think strong general AI is coming soon
"I think there is little time left before someone builds AGI (median ~2030). Once upon a time, I didn't think this."
3. Why Would AI "Aim" To Defeat Humanity?
"I’ll argue that if today’s AI development methods lead directly to powerful enough AI systems, disaster is likely1 by default (in the absence of specific countermeasures)."
4. Counterarguments to the basic AI x-risk case
"This is going to be a list of holes I see in the basic argument for existential risk from superhuman AI systems."
5. AI will change the world, but won’t take it over by playing “3-dimensional chess”.
"In this essay, we claim that the “loss of control” scenario rests on a few key assumptions that are not justified by our current understanding of artificial intelligence research."
My AI Safety Lecture for UT Effective Altruism
Кроме длинной и интересной записи Скотта, я приведу еще четыре ссылки из недавно прочитанных и впечатливших меня записей на эту тему. Две из них защищают точку зрения, что сильный искусственный интеллект не за горами, и что он крайне опасен для человечества. Две других - наоборот: что до него далеко, или что он не так опасен, как многие боятся.
2. Why I think strong general AI is coming soon
"I think there is little time left before someone builds AGI (median ~2030). Once upon a time, I didn't think this."
3. Why Would AI "Aim" To Defeat Humanity?
"I’ll argue that if today’s AI development methods lead directly to powerful enough AI systems, disaster is likely1 by default (in the absence of specific countermeasures)."
4. Counterarguments to the basic AI x-risk case
"This is going to be a list of holes I see in the basic argument for existential risk from superhuman AI systems."
5. AI will change the world, but won’t take it over by playing “3-dimensional chess”.
"In this essay, we claim that the “loss of control” scenario rests on a few key assumptions that are not justified by our current understanding of artificial intelligence research."