про AGI

Nov. 29th, 2014 12:55 am
109: (animated-1)
[personal profile] 109
если кому интересно, Nick Bostrom (да, тот самый Bostrom, который simulation argument) выпустил новую книжку два месяца назад.

и да, уже не до шуток теперь:

As the fate of the gorillas now depends more on us humans than on the gorillas themselves, so the fate of our species then would come to depend on the actions of the machine superintelligence.

This is quite possibly the most important and most daunting challenge humanity has ever faced. And – whether we succeed or fail – it is probably the last challenge we will ever face.

http://www.amazon.com/Superintelligence-Dangers-Strategies-Nick-Bostrom/dp/0199678111

(no subject)

Date: 2014-11-30 12:29 am (UTC)
From: [identity profile] akimka.livejournal.com
книжку зачитаю, а вообще эти все высказывания от того, что неверно считать гориллу зависимым от человека, а человека зависимым от ai, мы все зависимы от прогресса и эволюции просто, и так как эволюция перешла от химических систем, к биологических и затем к социальным, также она будет действовать и дальше.

(no subject)

Date: 2014-11-30 02:56 am (UTC)
From: [identity profile] 109.livejournal.com
> fate of the gorillas now depends more on us humans than on the gorillas themselves

что здесь неверного?

(no subject)

Date: 2014-11-30 03:43 am (UTC)
From: [identity profile] glocka.livejournal.com
С зависимостью от марсиан cначала разобраться бы!

Profile

109: (Default)
109

March 2019

S M T W T F S
     12
3456789
101112131415 16
17181920212223
24252627282930
31      

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags