avva: (Default)
[personal profile] avva
1. Скотт Ааронсон взял отпуск на год из университета, чтобы поработать в OpenAI над вопросами безопасности искусственного интеллекта. Вот его отчет через полгода после начала:

My AI Safety Lecture for UT Effective Altruism

Кроме длинной и интересной записи Скотта, я приведу еще четыре ссылки из недавно прочитанных и впечатливших меня записей на эту тему. Две из них защищают точку зрения, что сильный искусственный интеллект не за горами, и что он крайне опасен для человечества. Две других - наоборот: что до него далеко, или что он не так опасен, как многие боятся.

2. Why I think strong general AI is coming soon

"I think there is little time left before someone builds AGI (median ~2030). Once upon a time, I didn't think this."

3. Why Would AI "Aim" To Defeat Humanity?

"I’ll argue that if today’s AI development methods lead directly to powerful enough AI systems, disaster is likely1 by default (in the absence of specific countermeasures)."

4. Counterarguments to the basic AI x-risk case

"This is going to be a list of holes I see in the basic argument for existential risk from superhuman AI systems."

5. AI will change the world, but won’t take it over by playing “3-dimensional chess”.


"In this essay, we claim that the “loss of control” scenario rests on a few key assumptions that are not justified by our current understanding of artificial intelligence research."

February 2026

S M T W T F S
1 2 3 4 5 67
8 9 10111213 14
15 16 17 18192021
22232425262728

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Feb. 24th, 2026 03:46 am
Powered by Dreamwidth Studios