![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
помните, десяток лет назад был популярен термин "digital divide"? суть термина в "двугорбом" распределении по отношению к цифровым технологиям - люди либо по ту сторону этого divide, либо по эту.
сейчас я наблюдаю похожую картину по поводу AI. есть люди, которые врубаются и люди, которые не врубаются, и мало кто посередине.
про первый линк я уже писал, рассмотрим теперь второй. автор - писатель-фантаст (!), цитирующий "actual AI researchers". в первой же цитате профессор компьютерных наук признаётся в том, как он понимает singularity: It assumes a smart computer will create its own goals, and have its own will, and will use its faster processing abilities and deep databases to beat humans at their own game.
Deep databases, Карл!
эксперт не прост, он явно слышал что-то и про deep learning, и про databases. ну перепуталось в голове, бывает. не говоря уже о том, что Бостром, например, специально демонстрирует, как при движении к final goal (унаследованной от seed AI) возникают instrumental goals, и как легко эти instrumental goals могут оказаться несовместимыми с существованием человечества. и о том, что как раз нет, not "their own game". игра будет совершенно другой, правила которой human level intelligence вряд ли сможет даже понять.
следующий эксперт просто заявляет, что predictions... simply not realistic. безо всякой аргументации, зачем? он же эксперт, должны верить на слово.
следующий эксперт отрицает возможность super-intelligent autonomous benevolent A.I. to “reprogram” itself and remove its built-in safeguards against getting rid of humans. это продвинутый эксперт, он что-то слышал про control problem - но, к сожалению, немного; он не знаком со сценариями, которые делают невозможное очевидным.
ну и, наконец, самостоятельное творчество автора: Would you like a self-driving car that has its own opinions? That might someday decide it doesn’t feel like driving you where you want to go? That might ask for a raise?... и ещё пяток таких же глупостей, показывающих, насколько автор не понимает саму проблему, уж не говоря об ответах.
собственно, комменты к этой статье гораздо интереснее, чем сама статья. примерно половина комментаторов, по моим оценкам, въезжают в тему, и грамотно отвечают.
а статья специалиста по глубоким базам удостоилась аж слэшдота - и опять, примерно половина комментаторов по ту сторону divide, а половина - по эту.
я к чему это? удивительно, насколько широк divide. те, кто не в теме, распознаются мгновенно, буквально по тому, как и какие термины они употребляют.
Update: Only an expert can deal with the problem (Laurie Anderson)
сейчас я наблюдаю похожую картину по поводу AI. есть люди, которые врубаются и люди, которые не врубаются, и мало кто посередине.
про первый линк я уже писал, рассмотрим теперь второй. автор - писатель-фантаст (!), цитирующий "actual AI researchers". в первой же цитате профессор компьютерных наук признаётся в том, как он понимает singularity: It assumes a smart computer will create its own goals, and have its own will, and will use its faster processing abilities and deep databases to beat humans at their own game.
Deep databases, Карл!
эксперт не прост, он явно слышал что-то и про deep learning, и про databases. ну перепуталось в голове, бывает. не говоря уже о том, что Бостром, например, специально демонстрирует, как при движении к final goal (унаследованной от seed AI) возникают instrumental goals, и как легко эти instrumental goals могут оказаться несовместимыми с существованием человечества. и о том, что как раз нет, not "their own game". игра будет совершенно другой, правила которой human level intelligence вряд ли сможет даже понять.
следующий эксперт просто заявляет, что predictions... simply not realistic. безо всякой аргументации, зачем? он же эксперт, должны верить на слово.
следующий эксперт отрицает возможность super-intelligent autonomous benevolent A.I. to “reprogram” itself and remove its built-in safeguards against getting rid of humans. это продвинутый эксперт, он что-то слышал про control problem - но, к сожалению, немного; он не знаком со сценариями, которые делают невозможное очевидным.
ну и, наконец, самостоятельное творчество автора: Would you like a self-driving car that has its own opinions? That might someday decide it doesn’t feel like driving you where you want to go? That might ask for a raise?... и ещё пяток таких же глупостей, показывающих, насколько автор не понимает саму проблему, уж не говоря об ответах.
собственно, комменты к этой статье гораздо интереснее, чем сама статья. примерно половина комментаторов, по моим оценкам, въезжают в тему, и грамотно отвечают.
а статья специалиста по глубоким базам удостоилась аж слэшдота - и опять, примерно половина комментаторов по ту сторону divide, а половина - по эту.
я к чему это? удивительно, насколько широк divide. те, кто не в теме, распознаются мгновенно, буквально по тому, как и какие термины они употребляют.
Update: Only an expert can deal with the problem (Laurie Anderson)
(no subject)
Date: 2015-06-02 09:40 pm (UTC)(no subject)
Date: 2015-06-02 10:00 pm (UTC)вот ты пришёл в пост, посвящённый AI, и заявляешь, что это всё происки сионизма, никакого AI на самом деле нет.
не знаю, осознаёшь ли ты это, но таким образом ты уничтожаешь для себя предмет разговора. ну то есть, а чего приходил тогда? ну сказал, что его нет, okay, thank you for your input.
(no subject)
Date: 2015-06-02 10:10 pm (UTC)А мне все про Jeopardy, Вотсона и прочий фан.
(no subject)
Date: 2015-06-02 10:39 pm (UTC)так что давай - раз нету AI - ну и иди с миром.
(no subject)
Date: 2015-06-02 11:27 pm (UTC)(no subject)
Date: 2015-06-03 01:30 am (UTC)теперь же ты пытаешься сделать вид, что задал какой-то трудный вопрос, на который "трудно найти ответ", в то время как ответ очень простой и я его уже дал.
если же у тебя происходит какая-то внутренняя борьба с ватсоном, то я тут ни при чём.
ну и заодно, если ты решил прикинуться, что ты в танке, то я вынужден сказать explicitly, что к тем, кто приходит с говномётом вместо конструктивной беседы, моё терпение не безгранично.
(no subject)
Date: 2015-06-03 03:31 am (UTC)> в то время как ответ очень простой и я его уже дал.
Ну и где этот ответ? Я спросил когда будет робот, который самостоятельно умеет убрать дом. Если твоим же методом синтезировать твой ответ, то получается что никогда?
> какая-то внутренняя борьба с ватсоном
Как раз наоборот. Ватсон - это единственное на настоящий момент осмысленное (он же уже вполне реальной работой занят) применение чего-то, что вполне напоминает AI в реальной жизни. Вполне выглядит как начало компьютерной эры (много-много больших шкафов, которые вычисляют всего-навсего баллистическую траекторию). И мой вопрос звучал как "нужно ли ждать 50 лет с момента выигрыша ватсона в джеопардию" или оно таки быстрее справится.
> вынужден сказать explicitly, что к тем, кто приходит с говномётом вместо конструктивной беседы, моё терпение не безгранично.
Мне нужно в этом месте испугаться? Чего?
Я правильно понимаю что конструктивная беседа - это восторгаться тем какой ты умный, несмотря на работу в .... и возраст, и как ловко ты умеешь читать интернет?