109: (animated-1)
[personal profile] 109
Вот интересное видео. Чувак всё правильно говорит. Мыслитель, конечно, не уровня Бострома, это чувствуется как при постановке проблемы, так и при объяснении решений. Но это, возможно, имеет и положительный эффект в виде более подробных объяснений тех мест, который Бостром проскакивает, считая самоочевидными.

Место, где он рассказывает про датчики землетрясений, можно промотать, как нерелевантное, да оно и несколько минут всего.

(no subject)

Date: 2016-05-13 12:23 am (UTC)
From: [identity profile] juan-gandhi.livejournal.com
Интересные топики постишь; спасибо!!!

(no subject)

Date: 2016-05-13 12:31 am (UTC)
From: [identity profile] 109.livejournal.com
спасибо на добром слове :)

(no subject)

Date: 2016-05-13 04:38 am (UTC)
From: [identity profile] white-bars.livejournal.com
Присоединяюсь к предыдущему оратору :)

(no subject)

Date: 2016-05-13 06:22 pm (UTC)
From: [identity profile] arkanoid.livejournal.com
ахаха, даже не знаю что веселее: сверхразумный робополитик-популист или манипулятивный AI-диктатор, ведущий человечество к принудительному процветанию!

(no subject)

Date: 2016-05-13 06:37 pm (UTC)
From: [identity profile] 109.livejournal.com
what are you taking about?

(no subject)

Date: 2016-05-13 06:52 pm (UTC)
From: [identity profile] arkanoid.livejournal.com
Я про последние полчаса, где он рассказывает, что надо AI скормить возможность обучаться человеческим ценностям, индивидуальным или коллективным ;-)

(no subject)

Date: 2016-05-13 07:39 pm (UTC)
From: [identity profile] 109.livejournal.com
поскольку мне не ясно, на каком уровне у тебя возникает когнитивный диссонанс, мой ответ будет трояким.

1. если ты понимаешь, в чём заключается control problem вообще, и её детали в частности, но не уверен, как именно наиболее правильно сформулировать человеческие ценности, то тебе сюда:

https://wiki.lesswrong.com/wiki/Coherent_Blended_Volition
https://wiki.lesswrong.com/wiki/Coherent_Aggregated_Volition
https://wiki.lesswrong.com/wiki/Coherent_Extrapolated_Volition

2. если ты не уверен, что хорошо понимаешь, почему capability control, including boxing, stunting, and tripwires - не лучшее решение control problem, то тебе сюда и далее по ссылкам:

http://lesswrong.com/lw/l9s/superintelligence_13_capability_control_methods

3. если ты даже не читал Бострома, то тебе сюда:

https://www.amazon.com/Superintelligence-Dangers-Strategies-Nick-Bostrom-ebook/dp/B00LOOCGB2

просмотр соответствующих видео Бострома может дополнить чтение книги, но вряд ли может заменить.
Edited Date: 2016-05-13 07:39 pm (UTC)

(no subject)

Date: 2016-05-13 08:17 pm (UTC)
From: [identity profile] arkanoid.livejournal.com
1. ага.

вот те проблемы, которые изложены по ссылкам, в лекции особенно и не затрагивались.

2. довольно очевидно ("потому что не работает"),
3. читал, правда, в его же собственной укороченной выжимке, стоит осилить большую книгу?

(no subject)

Date: 2016-05-13 08:38 pm (UTC)
From: [identity profile] 109.livejournal.com
книгу стоит прочитать 100%. собственно, даже книга весьма сжато написана, у меня периодически при чтении возникали возражения Бострому, я возвращался на несколько страниц, перечитывал, думал. это при том, что у меня уже был background в виде ранее прочитанного lesswrong.

а в укороченной выжимке наверняка что-то важное отсутствует. где эта выжимка, кстати?

(no subject)

Date: 2016-05-13 09:28 pm (UTC)
From: [identity profile] arkanoid.livejournal.com
не помню, это было недлинное эссе, не больше 20 страниц, по памяти.

(no subject)

Date: 2016-05-15 06:13 pm (UTC)
From: [identity profile] arkanoid.livejournal.com
(кстати, забавно, как я дал дурака, угодив в ту же нелепую ситуацию, за которую ругаю других: столкнувшись с утрированным изложением, сделал вывод, что важные детали выпали из рассмотрения автора ненамеренно)

Profile

109: (Default)
109

March 2019

S M T W T F S
     12
3456789
101112131415 16
17181920212223
24252627282930
31      

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags