1. Скотт Ааронсон взял отпуск на год из университета, чтобы поработать в OpenAI над вопросами безопасности искусственного интеллекта. Вот его отчет через полгода после начала:
My AI Safety Lecture for UT Effective Altruism
Кроме длинной и интересной записи Скотта, я приведу еще четыре ссылки из недавно прочитанных и впечатливших меня записей на эту тему. Две из них защищают точку зрения, что сильный искусственный интеллект не за горами, и что он крайне опасен для человечества. Две других - наоборот: что до него далеко, или что он не так опасен, как многие боятся.
2. Why I think strong general AI is coming soon
"I think there is little time left before someone builds AGI (median ~2030). Once upon a time, I didn't think this."
3. Why Would AI "Aim" To Defeat Humanity?
"I’ll argue that if today’s AI development methods lead directly to powerful enough AI systems, disaster is likely1 by default (in the absence of specific countermeasures)."
4. Counterarguments to the basic AI x-risk case
"This is going to be a list of holes I see in the basic argument for existential risk from superhuman AI systems."
5. AI will change the world, but won’t take it over by playing “3-dimensional chess”.
"In this essay, we claim that the “loss of control” scenario rests on a few key assumptions that are not justified by our current understanding of artificial intelligence research."
My AI Safety Lecture for UT Effective Altruism
Кроме длинной и интересной записи Скотта, я приведу еще четыре ссылки из недавно прочитанных и впечатливших меня записей на эту тему. Две из них защищают точку зрения, что сильный искусственный интеллект не за горами, и что он крайне опасен для человечества. Две других - наоборот: что до него далеко, или что он не так опасен, как многие боятся.
2. Why I think strong general AI is coming soon
"I think there is little time left before someone builds AGI (median ~2030). Once upon a time, I didn't think this."
3. Why Would AI "Aim" To Defeat Humanity?
"I’ll argue that if today’s AI development methods lead directly to powerful enough AI systems, disaster is likely1 by default (in the absence of specific countermeasures)."
4. Counterarguments to the basic AI x-risk case
"This is going to be a list of holes I see in the basic argument for existential risk from superhuman AI systems."
5. AI will change the world, but won’t take it over by playing “3-dimensional chess”.
"In this essay, we claim that the “loss of control” scenario rests on a few key assumptions that are not justified by our current understanding of artificial intelligence research."