109: (animated-1)
109 ([personal profile] 109) wrote2014-11-29 12:55 am
Entry tags:

про AGI

если кому интересно, Nick Bostrom (да, тот самый Bostrom, который simulation argument) выпустил новую книжку два месяца назад.

и да, уже не до шуток теперь:

As the fate of the gorillas now depends more on us humans than on the gorillas themselves, so the fate of our species then would come to depend on the actions of the machine superintelligence.

This is quite possibly the most important and most daunting challenge humanity has ever faced. And – whether we succeed or fail – it is probably the last challenge we will ever face.

http://www.amazon.com/Superintelligence-Dangers-Strategies-Nick-Bostrom/dp/0199678111

[identity profile] akimka.livejournal.com 2014-11-30 12:29 am (UTC)(link)
книжку зачитаю, а вообще эти все высказывания от того, что неверно считать гориллу зависимым от человека, а человека зависимым от ai, мы все зависимы от прогресса и эволюции просто, и так как эволюция перешла от химических систем, к биологических и затем к социальным, также она будет действовать и дальше.

[identity profile] 109.livejournal.com 2014-11-30 02:56 am (UTC)(link)
> fate of the gorillas now depends more on us humans than on the gorillas themselves

что здесь неверного?

[identity profile] glocka.livejournal.com 2014-11-30 03:43 am (UTC)(link)
С зависимостью от марсиан cначала разобраться бы!