Jun. 9th, 2022

avva: (Default)


"ПОКА ВАС НЕ БЫЛО"

Вот такую штуку нашел сегодня в старой книге. Такие больше не нужны.
avva: (Default)
Элиезер Юдковский написал подробный отчет о том, как он на данный момент видит вопрос экзистенциального риска от сильного ИИ (AGI, Artificial General Intelligence, искусственный интеллект, сравнимый с человеческим): AGI Ruin: A List of Lethalities

Интересный и довольно депрессивный документ.

(Он, пожалуй, предполагает знакомство с основными аргументами Юдковского о том, как развитие сильного ИИ угрожает существованию человечества. Об этом можно почитать в вики-статьях https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence и https://en.wikipedia.org/wiki/AI_alignment.)

У меня нет твердого мнения ни о том, когда ожидать появление сильного ИИ, ни о том, насколько это опасно с точки зрения проблемы согласования (AI alignment). Я не думаю, что это надуманные проблемы; я думаю, что это потенциально очень опасные проблемы, степень риска от которых очень трудно оценить (и в этом заключается значительная часть риска).

Несколько контраргументов к пессимизму Юдковского можно прочитать в комментариях к его записи; я бы отдельно отметил также мнение Носталгебраиста (опять-таки, остаюсь без собственного твердого мнения).

April 2026

S M T W T F S
    1 2 3 4
5 6 7 89 1011
12131415161718
19202122232425
2627282930  

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Apr. 13th, 2026 07:57 am
Powered by Dreamwidth Studios