avva: (Default)
[personal profile] avva
Элиезер Юдковский написал подробный отчет о том, как он на данный момент видит вопрос экзистенциального риска от сильного ИИ (AGI, Artificial General Intelligence, искусственный интеллект, сравнимый с человеческим): AGI Ruin: A List of Lethalities

Интересный и довольно депрессивный документ.

(Он, пожалуй, предполагает знакомство с основными аргументами Юдковского о том, как развитие сильного ИИ угрожает существованию человечества. Об этом можно почитать в вики-статьях https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence и https://en.wikipedia.org/wiki/AI_alignment.)

У меня нет твердого мнения ни о том, когда ожидать появление сильного ИИ, ни о том, насколько это опасно с точки зрения проблемы согласования (AI alignment). Я не думаю, что это надуманные проблемы; я думаю, что это потенциально очень опасные проблемы, степень риска от которых очень трудно оценить (и в этом заключается значительная часть риска).

Несколько контраргументов к пессимизму Юдковского можно прочитать в комментариях к его записи; я бы отдельно отметил также мнение Носталгебраиста (опять-таки, остаюсь без собственного твердого мнения).
This account has disabled anonymous posting.
If you don't have an account you can create one now.
HTML doesn't work in the subject.
More info about formatting

January 2026

S M T W T F S
    1 2 3
4 5 6 7 8910
11121314151617
18192021222324
25262728293031

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jan. 8th, 2026 05:22 pm
Powered by Dreamwidth Studios