avva: (Default)
[personal profile] avva
Элиезер Юдковский написал подробный отчет о том, как он на данный момент видит вопрос экзистенциального риска от сильного ИИ (AGI, Artificial General Intelligence, искусственный интеллект, сравнимый с человеческим): AGI Ruin: A List of Lethalities

Интересный и довольно депрессивный документ.

(Он, пожалуй, предполагает знакомство с основными аргументами Юдковского о том, как развитие сильного ИИ угрожает существованию человечества. Об этом можно почитать в вики-статьях https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence и https://en.wikipedia.org/wiki/AI_alignment.)

У меня нет твердого мнения ни о том, когда ожидать появление сильного ИИ, ни о том, насколько это опасно с точки зрения проблемы согласования (AI alignment). Я не думаю, что это надуманные проблемы; я думаю, что это потенциально очень опасные проблемы, степень риска от которых очень трудно оценить (и в этом заключается значительная часть риска).

Несколько контраргументов к пессимизму Юдковского можно прочитать в комментариях к его записи; я бы отдельно отметил также мнение Носталгебраиста (опять-таки, остаюсь без собственного твердого мнения).
shlomo_fogel: (Default)
From: [personal profile] shlomo_fogel
В чем же страх и ужас "интеллекта, сравнимого с человеческим"? А собственно человеческий интеллект уже не пугает? Обязательно нужно чтоб вот такой же точно, но кристаллический?
ИИ именно тем и хорош, что принципиально не сравним с человеческим. Риск сосуществования с ним не больше риска существования вообще, которое существование происходит в сложно устроенной вселенной и иногда прерывается по стечению различных факторов. Среди оценок устройства вселенной есть и такое: мы проживаем внутри сверхразумной сложной машины, сами являясь одной из ее частей. Понять и оценить же цели и задачи Вселенной мы можем не более чем муравей (с его нервной системой) в состоянии оценить цели и задачи проходящего мимо муравейника человека.

Date: 2022-06-10 01:19 am (UTC)
From: [personal profile] dedekha
Можно, конечно, перебить всех ученых желающих играть в Бога и за не имением критерия перебить просто всех специалистов по молекулярной генетике и ии. Решит ли это проблему? Огрничить частоту и технолгию производимых процессоров?

January 2026

S M T W T F S
    1 2 3
45678910
11121314151617
18192021222324
25262728293031

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jan. 5th, 2026 10:11 am
Powered by Dreamwidth Studios